Przyszłość dronów: Zautomatyzowane zabijanie.
Peter Finn, washingtonpost.com
USA
2011-10-08
Nauka i technologia
Jednego popołudnia ostatniej jesieni w Fort Benning, Ga., wystartowały dwa samoloty rozmiaru modeli wspinając się na wysokość 240 i 300 metrów, i zaczęły krążyć nad wojskową bazą w poszukiwaniu pomarańczowego, zielonego i niebieskiego brezentu.

Po 20 minutach jeden z samolotów posiadających komputer, który przetwarza obrazy z kamery pokładowej wyzerował cel na brezencie i skontaktował się z drugim samolotem, który leciał nieopodal i użył swoich własnych sensorów by zbadać kolorowy obiekt. Wtedy jeden z samolotów zasygnalizował sytuację do bezzałogowego samochodu tak by mógł podjąć finalną ocenę celu z bliska.

Cel potwierdzony.

Te dokonane z sukcesem manewry testujące autonomiczną robotykę mogą być zapowiedzią przyszłości amerykańskiego stylu prowadzenia wojny: dzień gdy drony będą tropić, identyfikować i zabijać wroga w oparciu o kalkulacje czynione przez oprogramowanie a nie przez decyzje podejmowane przez ludzi.
Wyobraźcie sobie podniebne “Terminatory,” minus napakowane mięśnie i podróże w czasie.

Brezent w Fort Benning “jest raczej prostym celem ale myślcie o nim jak o surogacie,” powiedział Charles E. Pippin, naukowiec z Georgia Tech Research Institute, który rozwinął oprogramowanie dla przeprowadzenia demonstracji.
“Możecie sobie wyobrazić scenariusze czasu realnego gdzie 10 tych rzeczy jest w powietrzu i coś się dzieje na ziemi i nie ma czasu by człowiek powiedział, “Chcę byś zdjął te czołgi." To musi dziać się znacznie szybciej.”

Demonstracja stworzyła grunt dla postępów naukowych, które pozwolą dronom na poszukiwanie ludzkiego celu i następnie identyfikowanie go w oparciu o procesy rozpoznania twarzy lub inne oprogramowanie. Gdy dokona się identyfikacji celu można odpalić pocisk, który zabije cel.

Systemy militarne o pewnym stopniu anatomii - takie jak robotyczni uzbrojeni wartownicy - są używane w strefie zdemilitaryzowanej pomiędzy Koreą Płn. i Płd. i w innych obszarach potencjalnych bitew.



Badacze nie są pewni jak szybko maszyny będą zdolne do współpracy i inteligentnej adaptacji do warunków bitewnych. Może to zająć dwie dekady lub dłużej. Wojsko U.S. finansuje liczne projekty badawcze dotyczące autonomii by opracować maszyny, które podejmą pewne nudne lub niebezpieczne zadania oraz by utrzymać swoją przewagę nad potencjalnymi przeciwnikami, którzy również pracują nad takimi systemami.

Zabijanie podejrzanych o terroryzm i rebeliantów przez uzbrojone drony kontrolowane przez pilotów siedzących w bazach oddalonych o tysiące mil w zachodnich Stanach Zjednoczonych sprowokowały krytycyzm mówiący, że technologia czyni wojnę antyseptyczną. Podniesiono również kwestię legalności ataków dronów używanych w miejscach takich jak Pakistan, Jemen i Somalia, które nie są w stanie wojny ze Stanami Zjednoczonymi. Ta debata jedynie się zintensyfikuje gdy postępy technologiczne umożliwią to co eksperci nazywają śmiertelną autonomią.

Perspektywa maszyn zdolnych postrzegać, rozumować i działać w nieopisanych środowiskach prezentuje wyzwanie do obecnego rozumienia międzynarodowych praw humanitarnych. Konwencja Genewska wymaga od walczących stron zastosowania standardów dyskryminacji i proporcjonalności, które wymagałyby by od maszyn aby odróżniały walczących przeciwników, od poddających się oddziałów czy cywilów.

Future war: drones that talk to each other and coordinate an attack


Przyszłość dronów: Zautomatyzowane zabijanie.
“Rozwinięcie takich systemów odzwierciedliłoby zmianę paradygmatu i znaczną jakościową zmianę w podejmowaniu działań wojennych,” powiedział Jakob Kellenberger, prezydent międzynarodowego komitetu Czerwonego Krzyża na konferencji we Włoszech. “Podniosłoby to również cały zakres podstawowych problemów prawnych, etycznych i społecznych, które należy rozważyć zanim takie systemy zostaną rozwinięte bądź użyte.”

Drony latające nad Afganistanem, Jemenem i Pakistanem już teraz mogą się automatycznie poruszać od punktu do punktu i nie jest jasne jakiego rodzaju obserwacje lub inne zadania, jeśli jakiekolwiek, mogą wykonywać w trybie autonomicznym. Nawet gdy są bezpośrednio połączone z ludzkimi operatorami te maszyny produkują tyle danych, że procesory przesiewają materiał by zasugerować cele lub przynajmniej obiekty zainteresowania. Ten trend ku większej autonomii będzie się jedynie zwiększał gdy wojsko USA zacznie odchodzić od jednego pilota sterującego zdalnie tylko jednym dronem do pilota zarządzającego kilkoma dronami jednocześnie.

Ale to ludzie wciąż podejmują decyzję o otwarciu ognia i w przypadku uderzeń CIA w Pakistanie, ta decyzja pozostaje w gestii dyrektora agencji. W przyszłych operacjach, jeśli drony zostaną użyte przeciwko wyrafinowanemu wrogowi może być wtedy o wiele mniej czasu na deliberacje a potrzeba maszyn, które mogą działać na własną rękę znacznie większa.

Wojsko USA już zaczęło się zmagać z implikacjami powstających technologii.

“Autoryzowanie maszyn do podejmowania śmiercionośnych decyzji na polu walki jest przypadkiem dla politycznych i wojskowych przywódców rozwiązujących prawne i etyczne pytania,” według traktatu Sił Powietrznych zwanego Planem Lotów Bezzałogowych Systemów Lotniczych [Unmanned Aircraft Systems Flight Plan 2009-2047.] “To zawiera w sobie stosowność istnienia takich maszyn posiadających wymienione zdolności, oraz to w jakich okolicznościach powinny być stosowane, gdzie leży odpowiedzialność za pomyłki i jakie ograniczenia powinny być przerzucone na autonomię takich systemów.”

W przyszłości mikrodrony będą przeszukiwać tunele i budynki, robotyczne muły będą ciągnęły sprzęt a systemy mobilne będą ratowały rannych pod ostrzałem. Technologia będzie ratować życie. Ale kierunek badań militarnych doprowadził do głosów wzywających do reżimu kontroli zbrojeń by uprzedzić jakąkolwiek możliwość, że autonomiczne systemy wezmą ludzi na cel.

W zeszłym roku w Berlinie grupa inżynierów robotyki, filozofów i aktywistów praw człowieka sformowała Międzynarodowy Komitet dla Kontroli Zbrojeń Robot-w (ICRAC) i stwierdziła, że takie technologie mogą kusić twórców polityki do myślenia, że wojna może być mniej krwawa.

Niektórzy eksperci martwią się również, że wrogie państwa lub organizacje terrorystyczne mogą shakować robotyczne systemy i zmienić ich kierunki działań. Awarie również są problemem: W 2007 w Afryce Południowej półautonomiczne działko śmiertelnie postrzeliło dziewięciu swoich żołnierzy.

ICRAC chciałoby widzieć międzynarodowy traktat, taki jak ten zakazujący min przeciwpiechotnych, który zdelegalizowałby niektóre ze śmiercionośnych autonomicznych maszyn. Takie umowy wciąż pozwalałyby na użycie zautomatyzowanych systemów przeciwrakietowych.



“Pytaniem jest czy takie systemy są zdolne do dyskryminacji,” powiedział Peter Asaro, założyciel ICRAC i profesor Szkoły Nowości [New School] w Nowym Jorku, który naucza kierunków cyfrowej wojny. “Dobra technologia jest wciąż odległa ale technologia, która nie pracuje zbyt dobrze już tu jest. Zmartwieniem jest to, że te systemy zostaną wykorzystane zbyt wcześnie i że będą popełniać wiele błędów i że te błędy staną się zbrodniami.”

Badania nad autonomią, niektóre z nich utajnione stworzyły wyścig zbrojeń na uniwersytetach i w ośrodkach badawczych w Stanach Zjednoczonych i ten wysiłek zaczyna być kopiowany w innych krajach, w szczególności w Chinach.

“Śmiercionośna autonomia jest nieuchronna,” stwierdził Ronald C. Arkin, autor “Zarządzania Śmiercionośną Autonomią w Robotach Autonomicznych,” badaniu które zostało sfinansowane przez Biuro Badań Armii.

Arkin wierzy, że jest możliwe zbudowanie etycznych wojskowych dronów i robotów zdolnych do użycia śmiertelnej siły i jednocześnie zaprogramowanych tak by przestrzegać międzynarodowych praw humanitarnych i zasad walki. Stwierdził, że można stworzyć oprogramowanie, które doprowadzi maszyny do odpowiadania ogniem z proporcjonalnością, minimalizacji ubocznych zniszczeń, rozpoznania poddających się i w przypadku niepewności manewrowania w celu ponownej oceny sytuacji lub w oczekiwaniu na ludzką ocenę.

Innymi słowy zasady takie jak te rozumiane przez ludzi mogą zostać skonwertowane w algorytmy naśladowane przez maszyny dla wszelkich rodzajów działań na polu walki.

“Jak jednostka wojenna może myśleć - próbujemy stworzyć nasze systemy by właśnie tak się zachowywały,” powiedziała Lora G. Weiss, szef naukowców w technicznym instytucie badawczym Georgia Tech Research Institute.

Inni jednakże pozostają sceptyczni co do tego, że ludzie mogą zostać usunięci z całego procesu.

“Autonomia jest prawdziwą piętą achillesową robotyki,” stwierdził Johann Borenstein szef Laboratorium Mobilnej Robotyki Uniwersytetu Michigan. “Potrzeba wiele pracy a wciąż nie dotarliśmy do punktu gdzie nawet najmniejsza porcja autonomii jest używana na polu wojskowym. Wszystkie roboty w wojsku są zdalnie sterowane. Jak to pasuje do faktu, że uniwersytety i firmy pracowały nad autonomią od ponad 20 lat?”

Borenstein stwierdził, że ludzkie umiejętności pozostaną krytyczne na polu walki jeszcze w dalekiej przyszłości.

“Najważniejszą ze wszystkich umiejętności jest zdrowy rozsądek,”
stwierdził. “Roboty nie posiadają zdrowego rozsądku i nie będą go posiadać w ciągu najbliższych 50 lat, lub tak daleko w przyszłości jak ktokolwiek chciałby zgadywać.”


(Przypis tłumacza
Historia pokazuje, że wszelkie traktaty o zakazie używania nowych broni są przestrzegane co najwyżej do czasu aż broń, której ów zakaz dotyczy staje się wystarczająco skuteczna lub ekonomiczna do użytku na polu walki. Mało prawdopodobne jest by organizacje terrorystyczne były w stanie kiedykolwiek zbudować podobne systemy na własną rękę, jednak z pewnością może się zdarzyć, że będą w nie wyposażane przez państwa posługujące się takimi organizacjami do własnych celów.)

Tłumaczenie: Redimix


Skynet, robotyka i globalne trendy strategiczne.  Internet Rzeczy. 2025.  |  NBIC. Wizja świata w 2025 roku. | Dlaczego przyszłości nas nie potrzebuje.


Link do oryginalnego artykułu: LINK




Więcej na ten temat

 Komentarze

Musisz być zalogowany, aby móć komentować. Jeżeli nie posiadasz konta zarejestruj się.
 
Nazwa użytkownika
Hasło
 

Więcej
Nauka i technologia

Bill Gates i MIT opracowali samoorganizujący się system dostarczania leków.

Bill Gates i MIT opracowali samoorganizujący się system dostarczania leków.

Naukowcy z MIT, Harvard Medical School i Broad Institute ogłosili przełom: samoorganizujący się system dostarczania leków...

Zgodnie z planami armia USA wprowadza broń laserową do dronów i innych systemów.

Zgodnie z planami opublikowanymi w 1996 roku armia USA wprowadza obecnie broń laserową do swoich wojskowych...

Rząd Wielkiej Brytanii już za kilka tygodni ma oficjalnie prowadzić geoinżynieryjny program.

WHO finalizuje traktat pandemiczny.

Sekretarz zdrowia USA R.F. Kennedy rozpoczął „ogromne testy i badania” w celu ustalenia przyczyn autyzmu.


Nowe nagranie wprost z satanistycznych rytów Bohemian Grove, gdzie elity świata zachodniego oddają cześć swoim pogańskim bóstwom:


Nowe systemy robotyczne:



Krytyczne filmy na temat Covid-19:Ostatnie Audycje PrisonPlanet.pl:

Polityka

Przewrót w Światowym Forum Ekonomicznym.

Przewrót w Światowym Forum Ekonomicznym.

Założyciel Światowego Forum Ekonomicznego, Klaus Schwab, jest objęty wewnętrznym postępowaniem wyjaśniającym prowadzonym...

Poznaj następcę Schwaba – Petera Brabecka-Letmathe.

Peter Brabeck-Letmathe zastąpił Klausa Schwaba na stanowisku dyrektora generalnego Światowego Forum Ekonomicznego WEF w czymś, co wygląda na...

Napięcia między USA a Chinami rosną – cła nie są problemem.

Europa chce podbić Rosję, aby przejąć jej zasoby.

Rosja ostrzega przed amerykańskimi atakami na irańskie obiekty jądrowe.

© 2010-2021 PRISON PLANET.PL  |  Wszelkie prawa zastrzeżone