Przyszłość dronów: Zautomatyzowane zabijanie.
Peter Finn, washingtonpost.com
USA
2011-10-08
Nauka i technologia
Jednego popołudnia ostatniej jesieni w Fort Benning, Ga., wystartowały dwa samoloty rozmiaru modeli wspinając się na wysokość 240 i 300 metrów, i zaczęły krążyć nad wojskową bazą w poszukiwaniu pomarańczowego, zielonego i niebieskiego brezentu.

Po 20 minutach jeden z samolotów posiadających komputer, który przetwarza obrazy z kamery pokładowej wyzerował cel na brezencie i skontaktował się z drugim samolotem, który leciał nieopodal i użył swoich własnych sensorów by zbadać kolorowy obiekt. Wtedy jeden z samolotów zasygnalizował sytuację do bezzałogowego samochodu tak by mógł podjąć finalną ocenę celu z bliska.

Cel potwierdzony.

Te dokonane z sukcesem manewry testujące autonomiczną robotykę mogą być zapowiedzią przyszłości amerykańskiego stylu prowadzenia wojny: dzień gdy drony będą tropić, identyfikować i zabijać wroga w oparciu o kalkulacje czynione przez oprogramowanie a nie przez decyzje podejmowane przez ludzi.
Wyobraźcie sobie podniebne “Terminatory,” minus napakowane mięśnie i podróże w czasie.

Brezent w Fort Benning “jest raczej prostym celem ale myślcie o nim jak o surogacie,” powiedział Charles E. Pippin, naukowiec z Georgia Tech Research Institute, który rozwinął oprogramowanie dla przeprowadzenia demonstracji.
“Możecie sobie wyobrazić scenariusze czasu realnego gdzie 10 tych rzeczy jest w powietrzu i coś się dzieje na ziemi i nie ma czasu by człowiek powiedział, “Chcę byś zdjął te czołgi." To musi dziać się znacznie szybciej.”

Demonstracja stworzyła grunt dla postępów naukowych, które pozwolą dronom na poszukiwanie ludzkiego celu i następnie identyfikowanie go w oparciu o procesy rozpoznania twarzy lub inne oprogramowanie. Gdy dokona się identyfikacji celu można odpalić pocisk, który zabije cel.

Systemy militarne o pewnym stopniu anatomii - takie jak robotyczni uzbrojeni wartownicy - są używane w strefie zdemilitaryzowanej pomiędzy Koreą Płn. i Płd. i w innych obszarach potencjalnych bitew.



Badacze nie są pewni jak szybko maszyny będą zdolne do współpracy i inteligentnej adaptacji do warunków bitewnych. Może to zająć dwie dekady lub dłużej. Wojsko U.S. finansuje liczne projekty badawcze dotyczące autonomii by opracować maszyny, które podejmą pewne nudne lub niebezpieczne zadania oraz by utrzymać swoją przewagę nad potencjalnymi przeciwnikami, którzy również pracują nad takimi systemami.

Zabijanie podejrzanych o terroryzm i rebeliantów przez uzbrojone drony kontrolowane przez pilotów siedzących w bazach oddalonych o tysiące mil w zachodnich Stanach Zjednoczonych sprowokowały krytycyzm mówiący, że technologia czyni wojnę antyseptyczną. Podniesiono również kwestię legalności ataków dronów używanych w miejscach takich jak Pakistan, Jemen i Somalia, które nie są w stanie wojny ze Stanami Zjednoczonymi. Ta debata jedynie się zintensyfikuje gdy postępy technologiczne umożliwią to co eksperci nazywają śmiertelną autonomią.

Perspektywa maszyn zdolnych postrzegać, rozumować i działać w nieopisanych środowiskach prezentuje wyzwanie do obecnego rozumienia międzynarodowych praw humanitarnych. Konwencja Genewska wymaga od walczących stron zastosowania standardów dyskryminacji i proporcjonalności, które wymagałyby by od maszyn aby odróżniały walczących przeciwników, od poddających się oddziałów czy cywilów.

Future war: drones that talk to each other and coordinate an attack


Przyszłość dronów: Zautomatyzowane zabijanie.
“Rozwinięcie takich systemów odzwierciedliłoby zmianę paradygmatu i znaczną jakościową zmianę w podejmowaniu działań wojennych,” powiedział Jakob Kellenberger, prezydent międzynarodowego komitetu Czerwonego Krzyża na konferencji we Włoszech. “Podniosłoby to również cały zakres podstawowych problemów prawnych, etycznych i społecznych, które należy rozważyć zanim takie systemy zostaną rozwinięte bądź użyte.”

Drony latające nad Afganistanem, Jemenem i Pakistanem już teraz mogą się automatycznie poruszać od punktu do punktu i nie jest jasne jakiego rodzaju obserwacje lub inne zadania, jeśli jakiekolwiek, mogą wykonywać w trybie autonomicznym. Nawet gdy są bezpośrednio połączone z ludzkimi operatorami te maszyny produkują tyle danych, że procesory przesiewają materiał by zasugerować cele lub przynajmniej obiekty zainteresowania. Ten trend ku większej autonomii będzie się jedynie zwiększał gdy wojsko USA zacznie odchodzić od jednego pilota sterującego zdalnie tylko jednym dronem do pilota zarządzającego kilkoma dronami jednocześnie.

Ale to ludzie wciąż podejmują decyzję o otwarciu ognia i w przypadku uderzeń CIA w Pakistanie, ta decyzja pozostaje w gestii dyrektora agencji. W przyszłych operacjach, jeśli drony zostaną użyte przeciwko wyrafinowanemu wrogowi może być wtedy o wiele mniej czasu na deliberacje a potrzeba maszyn, które mogą działać na własną rękę znacznie większa.

Wojsko USA już zaczęło się zmagać z implikacjami powstających technologii.

“Autoryzowanie maszyn do podejmowania śmiercionośnych decyzji na polu walki jest przypadkiem dla politycznych i wojskowych przywódców rozwiązujących prawne i etyczne pytania,” według traktatu Sił Powietrznych zwanego Planem Lotów Bezzałogowych Systemów Lotniczych [Unmanned Aircraft Systems Flight Plan 2009-2047.] “To zawiera w sobie stosowność istnienia takich maszyn posiadających wymienione zdolności, oraz to w jakich okolicznościach powinny być stosowane, gdzie leży odpowiedzialność za pomyłki i jakie ograniczenia powinny być przerzucone na autonomię takich systemów.”

W przyszłości mikrodrony będą przeszukiwać tunele i budynki, robotyczne muły będą ciągnęły sprzęt a systemy mobilne będą ratowały rannych pod ostrzałem. Technologia będzie ratować życie. Ale kierunek badań militarnych doprowadził do głosów wzywających do reżimu kontroli zbrojeń by uprzedzić jakąkolwiek możliwość, że autonomiczne systemy wezmą ludzi na cel.

W zeszłym roku w Berlinie grupa inżynierów robotyki, filozofów i aktywistów praw człowieka sformowała Międzynarodowy Komitet dla Kontroli Zbrojeń Robot-w (ICRAC) i stwierdziła, że takie technologie mogą kusić twórców polityki do myślenia, że wojna może być mniej krwawa.

Niektórzy eksperci martwią się również, że wrogie państwa lub organizacje terrorystyczne mogą shakować robotyczne systemy i zmienić ich kierunki działań. Awarie również są problemem: W 2007 w Afryce Południowej półautonomiczne działko śmiertelnie postrzeliło dziewięciu swoich żołnierzy.

ICRAC chciałoby widzieć międzynarodowy traktat, taki jak ten zakazujący min przeciwpiechotnych, który zdelegalizowałby niektóre ze śmiercionośnych autonomicznych maszyn. Takie umowy wciąż pozwalałyby na użycie zautomatyzowanych systemów przeciwrakietowych.



“Pytaniem jest czy takie systemy są zdolne do dyskryminacji,” powiedział Peter Asaro, założyciel ICRAC i profesor Szkoły Nowości [New School] w Nowym Jorku, który naucza kierunków cyfrowej wojny. “Dobra technologia jest wciąż odległa ale technologia, która nie pracuje zbyt dobrze już tu jest. Zmartwieniem jest to, że te systemy zostaną wykorzystane zbyt wcześnie i że będą popełniać wiele błędów i że te błędy staną się zbrodniami.”

Badania nad autonomią, niektóre z nich utajnione stworzyły wyścig zbrojeń na uniwersytetach i w ośrodkach badawczych w Stanach Zjednoczonych i ten wysiłek zaczyna być kopiowany w innych krajach, w szczególności w Chinach.

“Śmiercionośna autonomia jest nieuchronna,” stwierdził Ronald C. Arkin, autor “Zarządzania Śmiercionośną Autonomią w Robotach Autonomicznych,” badaniu które zostało sfinansowane przez Biuro Badań Armii.

Arkin wierzy, że jest możliwe zbudowanie etycznych wojskowych dronów i robotów zdolnych do użycia śmiertelnej siły i jednocześnie zaprogramowanych tak by przestrzegać międzynarodowych praw humanitarnych i zasad walki. Stwierdził, że można stworzyć oprogramowanie, które doprowadzi maszyny do odpowiadania ogniem z proporcjonalnością, minimalizacji ubocznych zniszczeń, rozpoznania poddających się i w przypadku niepewności manewrowania w celu ponownej oceny sytuacji lub w oczekiwaniu na ludzką ocenę.

Innymi słowy zasady takie jak te rozumiane przez ludzi mogą zostać skonwertowane w algorytmy naśladowane przez maszyny dla wszelkich rodzajów działań na polu walki.

“Jak jednostka wojenna może myśleć - próbujemy stworzyć nasze systemy by właśnie tak się zachowywały,” powiedziała Lora G. Weiss, szef naukowców w technicznym instytucie badawczym Georgia Tech Research Institute.

Inni jednakże pozostają sceptyczni co do tego, że ludzie mogą zostać usunięci z całego procesu.

“Autonomia jest prawdziwą piętą achillesową robotyki,” stwierdził Johann Borenstein szef Laboratorium Mobilnej Robotyki Uniwersytetu Michigan. “Potrzeba wiele pracy a wciąż nie dotarliśmy do punktu gdzie nawet najmniejsza porcja autonomii jest używana na polu wojskowym. Wszystkie roboty w wojsku są zdalnie sterowane. Jak to pasuje do faktu, że uniwersytety i firmy pracowały nad autonomią od ponad 20 lat?”

Borenstein stwierdził, że ludzkie umiejętności pozostaną krytyczne na polu walki jeszcze w dalekiej przyszłości.

“Najważniejszą ze wszystkich umiejętności jest zdrowy rozsądek,”
stwierdził. “Roboty nie posiadają zdrowego rozsądku i nie będą go posiadać w ciągu najbliższych 50 lat, lub tak daleko w przyszłości jak ktokolwiek chciałby zgadywać.”


(Przypis tłumacza
Historia pokazuje, że wszelkie traktaty o zakazie używania nowych broni są przestrzegane co najwyżej do czasu aż broń, której ów zakaz dotyczy staje się wystarczająco skuteczna lub ekonomiczna do użytku na polu walki. Mało prawdopodobne jest by organizacje terrorystyczne były w stanie kiedykolwiek zbudować podobne systemy na własną rękę, jednak z pewnością może się zdarzyć, że będą w nie wyposażane przez państwa posługujące się takimi organizacjami do własnych celów.)

Tłumaczenie: Redimix


Skynet, robotyka i globalne trendy strategiczne.  Internet Rzeczy. 2025.  |  NBIC. Wizja świata w 2025 roku. | Dlaczego przyszłości nas nie potrzebuje.


Link do oryginalnego artykułu: LINK




Więcej na ten temat

 Komentarze

Musisz być zalogowany, aby móć komentować. Jeżeli nie posiadasz konta zarejestruj się.
 
Nazwa użytkownika
Hasło
 

Więcej
Nauka i technologia

Technotronika. Naukowcy odkryli jak wyłączyć wiarę stosując przezczaszkową stymulację magnetyczną.

Technotronika. Naukowcy odkryli jak wyłączyć wiarę stosując przezczaszkową stymulację magnetyczną.

Wielu z nas ma silne przekonania religijne. Religie mają fundamentalne znaczenie nie tylko dla jednostek; wspierają całe...

Kolejny sabotaż z łodziami. 26 barek uszkodziło mosty i tamę na rzece Ohio.

Ponad dwadzieścia barek zerwało się z cum na rzece Ohio i popłynęło w dół rzeki, co spowodowało, że władze lokalne...

Tajny eksperyment geoinżynieryjny nad San Francisco ma zwiększać zachmurzenie.

Kontenerowiec „stracił zasilanie” w porcie w Nowym Jorku, tuż przed mostem Verrazzano-Narrows.

Dlaczego CERN i NASA robią eksperymenty podczas kwietniowego zaćmienia Słońca nad Ameryką Północną.

Więcej
Ekonomia

Rosja wyprzedzi wszystkie zaawansowane gospodarki – sankcje nie powiodły się.

Rosja wyprzedzi wszystkie zaawansowane gospodarki – sankcje nie powiodły się.

Sankcje i usunięcie Rosji z systemu SWIFT nie zatrzymały rosyjskiej gospodarki. Niedawny raport Międzynarodowego Funduszu...

70% amerykańskich miast jest poważnie zadłużonych.

Badanie przeprowadzone przez Truth in Accounting (TIA) wykazało, że 70% największych miast Ameryki odnotowało deficyt w roku...

Perspektywy na rok 2024 według Martina Armstronga.

Główne towarzystwa ubezpieczeniowe zmieniają swoje zasady, aby wykluczyć ubezpieczenie na wypadek obrażeń lub chorób podczas wojny, zamieszek lub rewolucji.

Inwazja nielegalnych migrantów to szaleństwo - rząd USA teraz rozdaje im pieniądze.

© 2010-2021 PRISON PLANET.PL  |  Wszelkie prawa zastrzeżone