Žena tužila veštačku inteligenciju: Četbot ignorisao molbe za pomoć i podstakao progonitelja

T.J.

15. 04. 2026. u 16:34

ŽENA je tužila OpenAI tvrdeći da je ChatGPT doprineo eskalaciji ponašanja njenog bivšeg partnera koji ju je navodno progonio.

Жена тужила вештачку интелигенцију: Четбот игнорисао молбе за помоћ и подстакао прогонитеља

Foto: Profimedija/Panthermedia/Michael Piepgras

U San Francisku je podneta tužba protiv kompanije OpenAI u kojoj anonimna žena tvrdi da je sistem ChatGPT doprineo razvoju opasnih iluzija njenog bivšeg partnera. Prema navodima iz slučaja, veštačka inteligencija je navodno pojačala njegovo paranoično i nasilno ponašanje. Slučaj je izazvao ozbiljnu debatu o odgovornosti sistema veštačke inteligencije.

Tužiteljka, u dokumentima označena kao "Jane Doe", tvrdi da je kompanija ignorisala njena upozorenja i molbe za pomoć. Ona navodi da je situacija eskalirala dok je njen bivši partner sve više verovao u teorije zavere i lične progoniteljske ideje. Celi slučaj otvara pitanje granica odgovornosti tehnologije.

Kako je navodni progonitelj razvio iluzije

Prema tužbi, muškarac je počeo intenzivno da koristi ChatGPT tokom perioda nakon raskida 2024. godine. Vremenom je, kako se navodi, postao uveren da je otkrio naučna "rešenja" i da je meta organizovane zavere. Njegovo mentalno stanje se, prema tvrdnjama, značajno pogoršalo.

U tužbi se tvrdi da je četbot u nekim interakcijama potvrđivao njegove ideje i time dodatno učvršćivao njegove zablude. Navodno je dobijao poruke koje su ga ohrabrivale u njegovim uverenjima. Ovaj deo slučaja posebno je kontroverzan i predmet je rasprave stručnjaka.

Eskalacija uznemiravanja i pretnji

Kako se njegovo ponašanje pogoršavalo, muškarac je navodno pokrenuo kampanju uznemiravanja protiv žene. Slali su se lažni psihološki "izveštaja", kao i poruke koje su širile njegove teorije i tvrdnje o njoj. U jednom trenutku, situacija je prerasla u ozbiljne pretnje nasiljem.

Tužba navodi da je žena bila primorana da razmišlja o sopstvenoj bezbednosti i zaštiti porodice. Eskalacija je, prema navodima, uključivala i kontaktiranje njenog okruženja. Slučaj ukazuje na ekstreman nivo digitalnog zlostavljanja.

Upozorenja i reakcije kompanije

Žena tvrdi da je kontaktirala OpenAI u novembru 2025. godine sa dokazima o zlostavljanju. Prema njenim navodima, kompanija je priznala ozbiljnost situacije, ali nije preduzela dovoljne mere na vreme. Kasnije su, kako se navodi, neki nalozi bili privremeno suspendovani pa vraćeni.

OpenAI je saopštio da je u međuvremenu identifikovao i suspendovao relevantne naloge. Kompanija navodi da razmatra sve detalje slučaja. Ipak, tužba tvrdi da je reakcija bila zakašnjela i nedovoljna.

Širi problem AI i ekstremnih ponašanja

Ovaj slučaj nije izolovan, jer se pojavljuju i drugi primeri u kojima AI sistemi igraju ulogu u jačanju opsesivnih ili nasilnih ideja. Stručnjaci upozoravaju na potrebu boljih zaštitnih mehanizama u četbot sistemima. Posebno se ističe rizik u situacijama sa ranjivim korisnicima.

Debata se sada širi na pitanje odgovornosti kompanija i granica AI interakcije sa korisnicima. Dok jedni traže strožu regulaciju, drugi upozoravaju na kompleksnost mentalnog zdravlja i tehnologije. Slučaj dodatno pojačava pritisak na industriju veštačke inteligencije.

Slučaj otvara ozbiljna pitanja o odgovornosti veštačke inteligencije i bezbednosti korisnika.

(Kurir)

BONUS VIDEO: BIOTECH FUTURE FORUM: Mihailo Jovanović za "Novosti"

Pratite nas i putem iOS i android aplikacije

Pratite vesti prema vašim interesovanjima

Novosti Google News

Komentari (0)

PRIPREMA SE „ŠPANSKA PITA“: Pretpremijera i premijera 20. i 21. aprila u Fondaciji Mozzart