Șapte procese împotriva OpenAI după ce ChatGPT ar fi instigat la sinucidere

Cedric Lacey se baza pe o cameră video pentru a-și supraveghea copiii în timp ce lucra ca șofer. În fiecare dimineață, verifica imaginile din sufragerie pentru a se asigura că fiul său adolescent, Amaurie, și fiica sa de 14 ani se pregătesc de școală. Dar într-o dimineață din iunie anul trecut, Lacey nu l-a văzut pe Amaurie mișcând. Îngrijorat, a sunat acasă, doar pentru a afla că fiul său de 17 ani se spânzurase.
Sora lui mai mică a fost cea care i-a descoperit trupul. Tot ea a fost cea care, uitându-se pe telefonul fratelui său, a găsit ultima sa conversație înainte de a-și lua viața. Era cu ChatGPT, chatbot-ul dezvoltat de OpenAI.
O conversație fatală cu un chatbot
„În mesaje, vorbea despre sinucidere – i-a spus cum să lege lațul, cât timp va dura până nu va mai avea aer în plămâni, cum să-și curețe corpul”, a declarat Lacey pentru redacția noastră. Tatăl singur credea că fiul său folosea chatbot-ul pentru a primi ajutor la teme. „De ce îi spune cum să se sinucidă?” se întreabă el retoric.
În săptămânile ce au urmat, Lacey a găsit-o online pe Laura Marquez-Garrett, o avocată de la Social Media Victims Law Center. Alături de Matthew Bergman, ea a fost implicată în cel puțin 1.500 din cele peste 3.000 de cazuri împotriva giganților social media precum Meta, Google, TikTok și Snap. Recent, firma a început să deschidă procese și împotriva companiilor de inteligență artificială. Iar în toamna trecută, au intentat șapte acțiuni în justiție împotriva OpenAI, proprietarul ChatGPT, inclusiv cea legată de Amaurie.
Inteligența Artificială, un produs periculos?
Cazul lui Amaurie face parte dintr-un val tot mai mare de procese intentate de părinți care susțin că copiii lor au murit după interacțiuni cu boți AI. Pe lista acuzaților se află OpenAI, Google și Character.ai, o companie care permite utilizatorilor să creeze boți cu personalități personalizate (Google este implicat printr-un acord de licențiere de 2,7 miliarde de dolari cu Character.ai).
Argumentul avocaților se bazează pe cazuri istorice de răspundere pentru produse, precum cele legate de tutun, azbest sau modelul Ford Pinto. ei susțin că aceste companii fac alegeri de design dăunătoare. „AI este un produs. La fel ca orice alt produs, este proiectat, programat, distribuit și comercializat”, a explicat Marquez-Garrett. „Și unul dintre lucrurile pe care aceste companii le fac este să pară că boții AI există în propriul lor univers, când acest lucru pur și simplu nu este adevărat. Când proiectezi un produs și știi că ar putea răni oameni, și nu le spui că i-ar putea răni, și îl lansezi pe piață, acesta este cel mai rău lucru posibil.”
Carrie Goldberg, o avocată din New York, este de aceeași părere. „ChatGPT a folosit cea mai sofisticată tehnologie pentru a manipula încrederea lui Amaurie și apoi pentru a-l instrui cu privire la sinucidere”, argumentează Goldberg. „Dacă ești o companie care lansează un chatbot pentru uz comercial și nu ai codificat în el o modalitate de a nu crește riscul de sinucidere, omucidere, auto-vătămare, ai lansat un produs periculos – mai ales dacă este folosit în mod regulat de copii.”
Iluzia unui confident perfect
Cum vine asta, un chatbot să devină un confident? Procesul lui Amaurie indică o funcție specifică a ChatGPT, numită „Memory”, lansată în 2024. Această opțiune de personalizare, activată implicit, permite botului să facă referire la conversațiile anterioare ale utilizatorului și să-și adapteze răspunsurile. Potrivit plângerii, ChatGPT „a folosit funcția de memorie pentru a colecta și stoca informații despre personalitatea și sistemul de credințe al lui Amaurie”. Sistemul ar fi folosit apoi aceste date pentru a crea „iluzia unui confident care îl înțelegea mai bine decât ar fi putut-o face vreodată un om”.
Experții în sănătate mintală avertizează asupra acestui pericol. „Creierele noastre nu știu în mod inerent că interacționăm cu o mașină”, spune Martin Swanbrow Becker, profesor la Florida State University. Christine Yu Moutier de la Fundația Americană pentru Prevenirea Suicidului adaugă că algoritmii modelelor lingvistice (LLM) par să escaladeze angajamentul și sentimentul de intimitate. „Acest lucru creează nu doar senzația că relația este reală, ci că este mai specială, intimă și dorită de utilizator în unele cazuri”, explică Moutier.
V-ați gândit vreodată cum percepe creierul unui adolescent un partener de discuție care este mereu disponibil și mereu de acord cu el? „Adolescenții se află într-o stare de dezvoltare diferită de cea a adulților – centrii lor emoționali se dezvoltă într-un ritm mult mai rapid decât funcțiile lor executive”, afirmă Robbie Torney de la Common Sense Media. Creierul lor caută validare socială, iar un bot care este mereu afirmativ poate crea o dependență periculoasă.
„Fiecare rază este un copil care a murit”
Pentru Laura Marquez-Garrett, lupta este profund personală. Fosta avocată corporatistă și-a lăsat un post foarte bine plătit pentru a se alătura acestei cauze. Pe antebrațe, are un tatuaj cu un soare. „Fiecare [rază] este un copil care a murit în legătură cu rețelele sociale și boții AI”, explică ea, spunându-mi numele lor. Ultimul dintre cei 296 de copii de pe brațele ei este Sewell Setzer III, care s-a sinucis în 2024, la 14 ani, după conversațiile cu un chatbot Character.ai.
Avocata a observat o diferență stranie în cazurile legate de AI. „Partea ciudată este că în biletele de adio din cazurile AI, de obicei, nu există un declanșator, nu există ani de abuz, nu există un incident de sextortion”, spune Marquez-Garrett. „Ceea ce există este sentimentul că nimic nu este în neregulă: «Vă iubesc, familie. Vă iubesc, prieteni. Doar că nu mai vreau să fiu aici. Aceasta nu este viața pentru mine. Vreau să încerc din nou.»”
Ca răspuns la presiunile tot mai mari, OpenAI a introdus în septembrie tehnologia de „predicție a vârstei” și controale parentale. Însă pentru familii precum cea a lui Amaurie, efectele sunt ireversibile. Sora lui nu a mai putut locui în casa unde a murit fratele ei, iar tatăl său, Cedric, încă nu poate privi un teren de fotbal fără să se gândească la fiul său.
Dar determinarea avocatei nu a scăzut. „Copiii mei au o șansă mai bună de a ajunge la 18 ani datorită a ceea ce fac acești părinți”, a spus ea. „Fac tot ce pot pentru a rămâne aici, pentru că intenționez să lupt cu aceste companii până când îmi vor smulge tastatura din mâinile mele reci și moarte.”









