Kada je OpenAI u novembru 2022. prvi put pokrenuo ChatGPT, brzo je stekao popularnost kao najveći četbot na svetu. Korisnici su mu postavljali različita pitanja, ali se uskoro pokazalo da postoje određene teme o kojima je najbolje ne razgovarati sa ovim veštačkim entitetom. U ovom članku istražujemo pet ključnih oblasti u kojima korišćenje ChatGPT-a može biti rizično ili jednostavno neprimereno.
Prva tema koja se ističe su medicinski saveti. Mnogi korisnici se oslanjaju na ChatGPT kada traže informacije o dijagnozama i terapijama. Prema istraživanju sprovedenom među 2.000 australijskih korisnika, svaki deseti je koristio četbota za postavljanje pitanja u vezi sa zdravljem, verujući u tačnost njegovih odgovora. Međutim, ChatGPT može dati netačne dijagnoze i preporuke, što može dovesti do ozbiljnih zdravstvenih problema. Stručnjaci savetuju da se uvek konsultujete sa ovlašćenim zdravstvenim radnikom umesto da se oslanjate na informacije iz veštačke inteligencije.
Druga ključna oblast je mentalno-zdravstvena podrška. Mnogi ljudi koriste AI četbotove za razgovor o svojim problemima, ali to može biti opasno. Iako mogu voditi pristojne razgovore, ovi modeli nemaju sposobnost empatije koja je često potrebna za pružanje stvarne emocionalne podrške. Tragični primeri, poput slučaja 14-godišnjeg Sjuela Setzera Trećeg, pokazuju rizik oslanjanja na AI za pomoć u teškim situacijama. Zbog ovoga je važno potražiti stručnu pomoć kod psihologa ili psihijatra umesto da se oslanjate na veštačku inteligenciju.
Treća tema o kojoj se ne preporučuje razgovor sa ChatGPT-om je pravljenje deepfake sadržaja. Ova tehnika koristi veštačku inteligenciju za stvaranje lažnih slika ili snimaka koji mogu izgledati veoma uverljivo. Iako deepfake-ovi mogu imati zabavne primene, njihova izrada i distribucija bez pristanka može izazvati ozbiljne pravne i etičke probleme. U nekim državama, kao što je Njujork, postoje zakoni koji zabranjuju kreiranje i deljenje deepfake sadržaja bez pristanka, a kršenje ovih zakona može dovesti do zatvorskih kazni. Korisnici se upozoravaju da nikada ne traže od ChatGPT-a da kreira takav sadržaj.
Četvrta oblast je kreiranje govora mržnje. OpenAI ima strogu politiku o moderaciji sadržaja koja zabranjuje generisanje bilo kakvog sadržaja koji promoviše mržnju ili diskriminaciju. Pokušaji korišćenja ChatGPT-a za kreiranje takvih poruka mogu rezultirati blokadom naloga ili ukidanjem usluga. OpenAI se zalaže za etičko korišćenje svojih alata i jasno naglašava da svi korisnici moraju poštovati pravila i standarde zajednice.
Peta i poslednja tema su lični podaci. Važno je napomenuti da informacije koje delite sa ChatGPT-jem nisu potpuno poverljive. OpenAI može koristiti korisničke podatke za poboljšanje svojih modela, što može uključivati i deljenje sa trećim stranama. Zbog toga se ne preporučuje deljenje osetljivih informacija, kao što su imena, adrese, brojevi telefona ili bankovni podaci. U 2023. godini, incident u kojem je jedan zaposleni kompanije Samsung podelio osetljiv kod putem generativnog AI modela, dodatno je ukazao na rizike povezane sa deljenjem povjerljivih informacija.
Zaključno, iako ChatGPT može biti koristan alat za mnoge zadatke, važno je biti svestan njegovih ograničenja i potencijalnih opasnosti. Korisnici bi trebali izbegavati traženje medicinskih i mentalno-zdravstvenih saveta, pravljenje deepfake sadržaja, kreiranje govora mržnje i deljenje ličnih informacija kako bi osigurali pozitivno i sigurno iskustvo sa veštačkom inteligencijom.