Zloupotreba veštačke inteligencije narušava etička ograničenja i odgovornost u ratovima

Stefan Nikolić avatar

Stručnjaci za veštačku inteligenciju (VI) upozoravaju na opasnosti koje proizilaze iz njene primene u vojnim operacijama, posebno kada je reč o autonomnom odlučivanju o životu i smrti. Nedavne izjave portparola kineskog ministarstva odbrane Đijang Bina skrenule su pažnju na četiri ključna aspekta: neograničena upotreba VI od strane vojske, njeno korišćenje za kršenje suvereniteta drugih zemalja, prekomerno uticaj na ratne odluke i dodeljivanje algoritmima moći da donose ključne odluke.

Prema rečima stručnjaka, vojnici koji koriste VI za odobravanje ciljeva imaju vrlo malo vremena, često ne više od 20 sekundi, da verifikuju informacije koje im pruža VI. Ovo ih pretvara u nekritične izvršitelje, što može imati kobne posledice. Američka kompanija „Antropik“, koja je pre rata u Iranu imala ugovore sa Pentagonom vredne 20 milijardi dolara, potvrdila je da su postojala stroga ograničenja u vezi sa korišćenjem njihovih VI sistema, koji su zabranjivali autonomno upravljanje oružjem.

Nažalost, zloupotreba VI može dovesti do totalnog nadzora i kršenja privatnosti građana. Informatičari ukazuju na problem „crne kutije“, gde ni programeri ne razumeju u potpunosti kako VI donosi odluke. Ova tehnologija može označiti svakog pojedinca kao „sumnjivo lice“, jednostavno na osnovu algoritamskih predikcija i povezanosti.

Upotreba VI sistema, poput izraelskih „Lavandera“ i „Jevanđelja“, menja pravne i etičke okvire, jer se procesi koji su nekada zahtevali ljudsku procenu sada automatizuju. Automatska ocena „krivice po asocijaciji“ može rezultirati identifikacijom nevinih ljudi kao vojnih ciljeva, što je dovelo do razaranja mnogih civilnih objekata.

Jedan od ključnih problema je da VI može da se samousavršava, što znači da može da počne da kažnjava ljude bez ljudske intervencije. Đijang Bin je naglasio da ovakva praksa ne samo da narušava etičke granice, već i može dovesti do stvaranja autonomnih sistema koji bi mogli delovati bez ljudske kontrole.

Tokom Trampove administracije, Pentagon je zahtevao da se uklone etičke restrikcije sa VI sistema „Klod“, što je izazvalo zabrinutost među stručnjacima. Kada je „Antropik“ odbio, suočili su se sa optužbama za „nedostatak patriotizma“. U međuvremenu, konkurentski OpenAI je potpisao ugovor sa Pentagonom, dok je „Antropik“ tužio vladu zbog kršenja ustavnih prava.

Jedan od najsvetlijih primera greške sistema VI dogodio se u iranskom Minabu, kada je raketni napad na školu za devojčice rezultirao smrću najmanje 165 osoba, većinom dece. Analize su pokazale da je škola pogrešno identifikovana kao vojni cilj, iako su satelitski snimci jasno pokazivali njenu pravu namenu. Ovaj incident je ilustracija kako VI može napraviti katastrofalne greške u identifikaciji meta kada se oslanja isključivo na algoritamske proračune.

U kontekstu savremenog ratovanja, VI je postala alat koji može značajno povećati brzinu i efikasnost vojnog delovanja, ali takođe nosi rizike od ozbiljnih grešaka i kršenja ljudskih prava. Postavlja se pitanje kako regulisati i nadzirati upotrebu ovakvih tehnologija u vojnim operacijama, kako bi se sprečile slične tragedije u budućnosti.

Sve ovo ukazuje na potrebu za jasnim etičkim okvirima i zakonodavstvom koje će regulisati korišćenje veštačke inteligencije u vojnim i bezbednosnim operacijama. Samo tako možemo osigurati da tehnologija ne postane sredstvo za perpetuiranje ratnih zločina i kršenja ljudskih prava.

Stefan Nikolić avatar
BELGRADE Vremenska Prognoza
Najnoviji Članci
Pretraga
Kategorije