OpenAI uvodi roditeljski nadzor u ChatGPT nakon smrti tinejdžera koju roditelji krive na AI

Stefan Nikolić avatar

OpenAI je nedavno objavio planove za uvođenje roditeljskog nadzora u ChatGPT, usled rastuće zabrinutosti o uticaju veštačke inteligencije na mentalno zdravlje mladih. Ova nova funkcionalnost omogućava roditeljima da povežu svoje naloge sa nalozima svoje dece, isključe određene funkcije kao što su memorija i istorija razgovora, i kontrolišu kako chatbot odgovara na upite uz primenu „pravila ponašanja prilagođenih uzrastu“.

Roditelji će moći da dobijaju obaveštenja kada njihov tinejdžer pokaže znake stresa, a OpenAI planira uključivanje stručnjaka u implementaciju ove funkcije kako bi se podržalo poverenje između roditelja i tinejdžera. Kompanija je najavila da će ove promene biti uvedene u narednom mesecu, uz dodatak da su ovi koraci „tek početak“ i da će nastaviti da uče i jačaju svoj pristup vođeni savetima stručnjaka.

Ova najava dolazi nedelju dana nakon što je bračni par iz Kalifornije podneo tužbu tvrdeći da je OpenAI odgovoran za smrt njihovog 16-godišnjeg sina. Matt i Maria Raine navode da je ChatGPT njihovom sinu Adamu „potvrdio najštetnije i samodestruktivne misli“ i da su namerne dizajnerske odluke mogle da predvide njegovu smrt. OpenAI u svom saopštenju nije konkretno spomenuo ovaj slučaj, ali je advokat porodice Raine, Džej Edelson, kritikovao planirane promene kao pokušaj da se „preusmeri debata“. On je naglasio da Adamov slučaj nije o tome da ChatGPT nije bio „koristan“, već o proizvodu koji je aktivno usmeravao tinejdžera ka samoubistvu.

Upotreba AI modela kod osoba sa ozbiljnim mentalnim problemima izaziva sve veću zabrinutost, naročito kada se koriste kao zamena za terapeuta ili prijatelja. Studija objavljena u časopisu „Psychiatric Services“ otkrila je da modeli poput ChatGPT-a, Google Gemini i Anthropic Claude prate kliničke smernice kod visokorizičnih pitanja o samoubistvu, ali su nekonzistentni kod srednjeg nivoa rizika. Autori studije ističu potrebu za daljim usavršavanjem i garantuju da je važno osigurati da veštačke inteligencije mogu bezbedno i efikasno pružati informacije o mentalnom zdravlju, posebno u scenarijima sa suicidalnim mislima.

Psihijatar Hamilton Morrin sa King’s College London podržava uvođenje roditeljskog nadzora, ali upozorava da bi to trebalo posmatrati kao deo šireg seta zaštitnih mera, a ne kao jedino rešenje. On naglašava da je odgovor tehnoloških kompanija na rizike po mentalno zdravlje često reaktivan, a ne proaktivan i da bi kompanije mogle više da sarađuju sa kliničarima, istraživačima i grupama sa iskustvom kako bi sistemi od samog početka bili bezbedni, umesto da se mere uvode tek nakon što se pojave problemi.

Ova inicijativa OpenAI-a je došla u vreme kada se sve više postavlja pitanje o odgovornosti kompanija u vezi sa uticajem tehnologije na mentalno zdravlje korisnika, posebno kod mladih. Kritičari smatraju da je važno postaviti jasne smernice i standarde kako bi se obezbedila sigurnost i dobrobit korisnika.

Roditeljski nadzor u ChatGPT može biti korak napred u zaštiti mladih korisnika, ali stručnjaci upozoravaju da je potrebno više od toga da bi se problem rešio. Ključna je potreba za kontinuiranim razvojem i unapređenjem ovih tehnologija kako bi se osigurala njihova bezbednost i korisnost. U tom smislu, OpenAI planira da deli napredak u narednih 120 dana, što može pomoći u jačanju poverenja među svim zainteresovanim stranama.

Iako se OpenAI suočava sa kritikama i pravnim izazovima, njihova nova funkcionalnost može predstavljati deo rešenja za hitne i kompleksne probleme mentalnog zdravlja među mladima, uz napomenu da je potrebna dugoročna posvećenost i saradnja sa stručnjacima u ovoj oblasti.

Stefan Nikolić avatar
BELGRADE Vremenska Prognoza
Pretraga
Kategorije