Da li želimo da roboti krenu u rat protiv ljudi?
21. avgust 2019.Za generalnog sekretara UN nema mesta za sumnju: autonomno oružje je „politički neprihvatljivo i moralno odvratno“, i trebalo bi ga zabraniti međunarodnom konvencijom. „Pomislite na posledice kad neki autonomni oružani sistem samostalno bira ljude kao ciljeve i odlučuje o napadu“, apeluje Antonio Gutereš.
Predstavnici međunarodne zajednice ponovo su se nedavno okupili u Ženevi kako bi raspravljali o zabrani – kako se to u medijima zove – „robota-ubica“. Ali sloga po tom pitanju nije ni na vidiku. Još manje su šanse za uvođenje zabrane pre nego što se pojave na ratištima. „Tapka se u mestu“, javlja nam jedan od učesnika te rasprave.
Ono što iz usta generalnog sekretara zvuči kao užas naučne fantastike, u stvari je već odavno realnost. Mnoge vojske sveta eksperimentišu sa sistemima u kojima se veštačka inteligencija i robotika koriste kao potencijalno smrtonosno oružje. Vojna logika je jasna: ako su mašine na frontu, ljudi su na sigurnom. Onda nema medijskih izvešća o poginulim ili ranjenim vojnicima, i koga je briga ako je uništen nekakav aparat. Povrh toga, naglašavaju zagovornici, mašine se nikada ne umore i uvek su precizne. A to na kraju ima čak i svoje prednosti: biće manje „kolateralne štete“ na civilnim ciljevima.
To više nije naučna fantastika
Prema prihvaćenoj definiciji Međunarodnog komiteta Crvenog krsta, autonomno oružje je ono koje samostalno bira ciljeve i uništava ih. Bespilotnim letelicama i dalje po pravilu upravlja vojnik koji bira cilj i aktivira oružje. Autonomno oružje sve odlučuje samo, a taj razvoj je daleko odmakao. A kad smo kod letelica, već sad postoje projektili koji sami procenjuju da li je cilj u povoljnom položaju za uništavanje i umeju da „sačekaju“ dok se to ne dogodi.
Nije teško otići još dalje: naučnici smatraju da nije nemoguće da će se uskoro voditi bitke u kojima neće biti ljudi već nego matematičke formule u procesorima računara na osnovu kojih će se odlučivati o životu ili smrti. To u suštini krši humanitarno međunarodno pravo koje nalaže da rat sme da se vodi samo između boraca, a ne protiv civila. Može li računar da razlikuje vojnika od civila? Veoma teško. „Ne možemo u te mašine da ugrađujemo čipove sa upisanim pravilima međunarodnog prava“, kažu protivnici takvog oružja. Mora da postoji garancija da, čak i kad je posao ubijanje, uvek na kraju čovek odlučuje da li će biti povučen obarač.
Kako stvoriti takve garancije? O tome već pet godina raspravljaju Ujedinjene nacije u Ženevi u okviru rasprave o „Konvenciji o određenom konvencionalnom oružju“ (Convention on Certain Conventional Weapons, CCW). Sredinom devedesetih na tom forumu se uspelo da se zabrani upotreba lasera koji bi služio za to da zaslepi protivnika i pre nego što je takvo oružje došlo na neko od bojišta. Takvu zabranu protivnici žele da dogovore i za „robote-ubice“, ali pregovori su veoma teški.
Mali protiv velikih
Glavni protivnici su države koje su daleko odmakle u razvoju automatizovanog oružja: SAD, Rusija, ali i Izrael. One odbacuju rezoluciju koja bi jasno zabranila takve sisteme. Tim vojnim velesilama protivi se grupa skupina od 28 delimično malih država koje traže jasnu zabranu. Jedina zemlja EU među njima je – Austrija. Te zemlje koje teže zabrani podržava čitav spektar nevladinih udruženja: ukupno 113 iz 50 zemalja pridružilo inicijativi Campagne to Stop Killer Robots. To podržava i Evropski parlament, mnoštvo naučnika, među kojima je i 21 dobitnik Nobelove nagrade.
Nemačka se nije priključila ni zagovornicima, ni protivnicima, iako se aktuelna vlada u svom koalicionom sporazumu složila da ne želi takvo oružje: „Odbacujemo autonomne sisteme naoružanja koji su izvan nadzora čoveka. Želimo da ono bude odbačeno u čitavom svetu“, piše u tom sporazumu. Ali nemačka delegacija na raspravi u Ženevi procenjuje da se „u ovom trenutku“ jednostavno ne može doći do potpune međunarodne zabrane takvog oružja, već i zbog jasnog protivljenja SAD i Rusije. Pritom nemačka vlada nerado govori o tome da i nemački proizvođači oružja eksperimentišu s takvim sistemima. Neke od tih funkcija bi, recimo, trebalo da ima i nemačko-francuski vojni avion FCAS sa pripadajućim bespilotnim letelicama upravljanim satelitskom navigacijom.
U svakom slučaju, postoji mogućnost da i ova runda pregovora propadne. Trenutno je na stolu samo predlog – da se o tome raspravlja i u naredne sledeće dve godine. Prema mutnoj formulaciji, izražava se nada da će se do tada postići „normativni okvir“. Sve je to, naravno, veoma daleko od nekakvih jasnih reči zabrane.
Tomas Kihenmajster, portparol nemačkog ogranka inicijative Stop Killer Robots razočaran je tim, kako kaže, „nebuloznim formulacijama“. I dalje se umanjuje značaj neophodnosti da čovek ipak odlučuje o upotrebi sile, žali se Kihenmajster novinarima DW. On isto tako strahuje da rasprava u Ženevi „nikada neće dovesti do jasne zabrane autonomnog oružja“.
Protivnici ipak ne žele da odustanu – dugo su se u Ženevi protivili i sporazumu o zabrani protivpešadijskih mina i kasetnih bombi. Zato su se organizovali van tog tela Ujedinjenih nacija i pred vladama čitavog sveta zagovarali takvu zabranu – što je na kraju i potpisano u Otavi i Oslu. Danas je ta zabrana deo međunarodnog prava.