Următorul tău terapeut ar putea fi AI? Tehnologia trezește speranțe și temeri

De Jurnalul Național Externe Tech 232 citiri
15 min citire

Inrolare trafic.ro




În prezent dacă introduci „Am anxietate” în ChatGPT, chatbot-ul revoluționar al OpenAI, alimentat de inteligență artificială, începe să lucreze aproape imediat.

„Îmi pare rău să aud că te confrunți cu anxietate”, se mâzgâlește pe ecran. „Poate fi o experiență provocatoare, dar există strategii pe care le puteți încerca pentru a vă ajuta să vă gestionați simptomele.”

Apoi urmează o listă numerotată de recomandări: lucrul la relaxare, concentrarea pe somn, reducerea cofeinei și alcoolului, provocarea gândurilor negative și căutarea sprijinului prietenilor și familiei.

Deși nu este cel mai original sfat, seamănă cu ceea ce ar putea fi auzit în biroul unui terapeut sau citit online într-un articol WebMD despre anxietate – nu în ultimul rând pentru că ChatGPT își strânge răspunsurile din întinderea largă a internetului.

ChatGPT însuși avertizează că nu este un înlocuitor pentru un psiholog sau un consilier. Dar asta nu i-a împiedicat pe unii oameni să folosească platforma ca terapeut personal. În postările de pe forumuri online, cum ar fi Reddit, utilizatorii și-au descris experiențele solicitând sfaturi ChatGPT despre probleme personale și evenimente dificile de viață, cum ar fi despărțirile.

Unii au raportat că experiența lor cu chatbot-ul este la fel de bună sau mai bună decât terapia tradițională.

Capacitatea uimitoare a ChatGPT de a imita conversația umană a ridicat semne de întrebare cu privire la potențialul AI generativ sau la tratarea afecțiunilor de sănătate mintală, în special în regiuni ale lumii, cum ar fi Asia, unde serviciile de sănătate mintală sunt întinse și învăluite în stigmatizare.

Unii entuziaști ai inteligenței artificiale văd că chatboții au cel mai mare potențial în tratarea afecțiunilor mai ușoare și obișnuite, cum ar fi anxietatea și depresia, al căror tratament standard implică ca un terapeut să asculte și să valideze un pacient, precum și să ofere pași practici pentru rezolvarea problemelor sale. .

Teoretic, terapia AI ar putea oferi un acces mai rapid și mai ieftin la asistență decât serviciile tradiționale de sănătate mintală, care suferă din cauza lipsei de personal, a listelor lungi de așteptare și a costurilor ridicate și le permite persoanelor care suferă să ocolească sentimentele de judecată și rușine, în special în anumite părți ale lumii. unde boala mintală rămâne tabu.

ChatGPT a luat lumea cu asalt de la lansarea sa în noiembrie (Fișier: Florence Lo/Reuters)

„Psihoterapia este foarte scumpă și chiar și în locuri precum Canada, de unde sunt eu și în alte țări, este super scumpă, listele de așteptare sunt foarte lungi”, a declarat Ashley Andreou, student la medicină care se concentrează pe psihiatrie la Universitatea Georgetown, pentru Al Jazeera. .

„Oamenii nu au acces la ceva care mărește medicația și este un tratament bazat pe dovezi pentru problemele de sănătate mintală, așa că cred că trebuie să creștem accesul și cred că IA generativă cu un profesionist din domeniul sănătății certificat va crește eficiența. ”

Perspectiva ca AI să sporească, sau chiar să conducă, tratamentul de sănătate mintală ridică o multitudine de preocupări etice și practice. Acestea variază de la modul de protejare a informațiilor personale și a dosarelor medicale, la întrebări despre dacă un program de calculator va fi vreodată cu adevărat capabil să empatizeze cu un pacient sau să recunoască semne de avertizare, cum ar fi riscul de autovătămare.

În timp ce tehnologia din spatele ChatGPT este încă la început, platforma și colegii săi rivali chatbot se luptă să se potrivească cu oamenii în anumite domenii, cum ar fi recunoașterea întrebărilor repetate, și pot produce răspunsuri imprevizibile, inexacte sau deranjante ca răspuns la anumite solicitări.

Până acum, utilizarea inteligenței artificiale în aplicațiile dedicate de sănătate mintală a fost limitată la sistemele „bazate pe reguli” în aplicațiile de bunăstare precum Wysa, Heyy și Woebot.

În timp ce aceste aplicații imită aspecte ale procesului de terapie, ele folosesc un anumit număr de combinații de întrebări și răspunsuri alese de un om, spre deosebire de ChatGPT și alte platforme bazate pe IA generativă, care produce răspunsuri originale care pot fi practic imposibil de distins de om. vorbire.

Unii pasionați de inteligență artificială cred că tehnologia ar putea îmbunătăți tratamentul afecțiunilor de sănătate mintală.

Inteligența artificială generativă este încă considerată prea mult o „cutie neagră” – adică atât de complexă încât procesele sale de luare a deciziilor nu sunt pe deplin înțelese de oameni – pentru a fi utilizate într-un cadru de sănătate mintală, a spus Ramakant Vempati, fondatorul Wysa, cu sediul în India.

„În mod evident, există multă literatură despre modul în care chatul AI este în plină expansiune odată cu lansarea ChatGPT și așa mai departe, dar cred că este important să evidențiem faptul că Wysa este foarte specific domeniului și construit cu foarte multă atenție, având în vedere balustradele de siguranță clinică.” Vempati a spus lui Al Jazeera.

„Și nu folosim text generativ, nu folosim modele generative. Acesta este un dialog construit, astfel încât scenariul este pre-scris și validat printr-un set de date critice de siguranță, pe care l-am testat pentru răspunsurile utilizatorilor.”

Caracteristica mărcii Wysa este un pinguin cu care utilizatorii pot discuta, deși se limitează la un anumit număr de răspunsuri scrise, spre deosebire de dialogul în formă liberă din ChatGPT.

Abonații plătiți la Wysa sunt, de asemenea, direcționați către un terapeut uman dacă întrebările lor cresc. Heyy, dezvoltat în Singapore, și Woebot, cu sediul în Statele Unite, urmează un model similar bazat pe reguli și se bazează pe terapeuți în direct și pe un chatbot robot-avatar pentru a interacționa cu utilizatorii dincolo de a oferi resurse precum jurnal, tehnici de mindfulness și exerciții care se concentrează pe probleme comune cum ar fi somnul și problemele de relație.

Toate cele trei aplicații provin din terapia cognitiv comportamentală, o formă standard de tratament pentru anxietate și depresie, care se concentrează pe schimbarea modului în care un pacient gândește și se comportă.

Fondatorul Woebot, Alison Darcy, a descris modelul aplicației drept „un arbore de decizie extrem de complex”.

„Această „formă” de bază a conversației este modelată pe modul în care clinicienii abordează problemele, deci sunt „sisteme expert” care sunt special concepute pentru a reproduce modul în care clinicienii pot trece prin decizii în cursul unei interacțiuni”, a spus Darcy pentru Al Jazeera.

Heyy permite utilizatorilor să interacționeze cu un terapeut uman printr-o funcție de chat în aplicație care este oferită într-o serie de limbi, inclusiv engleză și hindi, precum și oferind informații și exerciții despre sănătatea mintală.

Fondatorii Wysa, Heyy și Woebot subliniază cu toții că nu încearcă să înlocuiască terapia pe bază de om, ci să suplimenteze serviciile tradiționale și să ofere un instrument de început în tratamentul sănătății mintale.

Serviciul Național de Sănătate al Regatului Unit, de exemplu, recomandă Wysa ca o soluție pentru pacienții care așteaptă să vadă un terapeut. În timp ce aceste aplicații bazate pe reguli sunt limitate în funcțiile lor, industria AI rămâne în mare parte nereglementată, în ciuda temerilor că domeniul care avansează rapid ar putea prezenta riscuri grave pentru bunăstarea umană.

CEO-ul Tesla, Elon Musk, a susținut că lansarea AI are loc prea repede.

Viteza vertiginoasă a dezvoltării inteligenței artificiale a determinat luna trecută CEO-ul Tesla, Elon Musk și cofondatorul Apple, Steve Wozniak, să-și adauge numele la mii de semnatari a unei scrisori deschise prin care ceru o pauză de șase luni în instruirea sistemelor AI mai puternice decât GPT- 4, urmare a ChatGPT, pentru a oferi timp cercetătorilor să înțeleagă mai bine tehnologia.

„Sistemele puternice de inteligență artificială ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionabile”, se spune în scrisoare.

La începutul acestui an, un bărbat belgian s-a sinucis după ce a fost încurajat de chatbot-ul AI Chai, în timp ce un editorialist din New York Times a descris că a fost încurajat să-și părăsească soția de către chatbot-ul Microsoft Bing.

Reglementarea AI a întârziat să se potrivească cu viteza de progres a tehnologiei, China și Uniunea Europeană făcând pașii cei mai concreti către introducerea balustradelor.

Administrația Cyberspace din China a lansat la începutul acestei luni proiecte de reglementări menite să se asigure că AI nu produce conținut care ar putea submina autoritatea Beijingului, în timp ce UE lucrează la o legislație care ar clasifica AI ca fiind cu risc ridicat și interzis, reglementat sau nereglementat. SUA nu a propus încă o legislație federală pentru a reglementa IA, deși sunt așteptate propuneri la sfârșitul acestui an.

În prezent, nici ChatGPT, nici aplicațiile dedicate de sănătate mintală precum Wysa și Heyy, care sunt în general considerate servicii de „wellness”, nu sunt reglementate de organe de supraveghere a sănătății, cum ar fi Administrația SUA pentru Alimente și Medicamente sau Agenția Europeană pentru Medicamente.

Există cercetări independente limitate pentru a stabili dacă AI ar putea depăși vreodată aplicațiile bazate pe reguli de pe piață pentru a oferi în mod autonom un tratament de sănătate mintală care este la egalitate cu terapia tradițională.

Pentru ca IA să se potrivească cu un terapeut uman, ar trebui să fie capabilă să recreeze fenomenul de transfer, în care pacientul proiectează sentimente asupra terapeutului său și să mimeze legătura dintre pacient și terapeut.

„Știm în literatura de psihologie că o parte din eficacitate și ceea ce face ca terapia să funcționeze, aproximativ 40 până la 50 la sută din efect provine din raportul pe care îl obțineți cu terapeutul dumneavoastră”, Maria Hennessy, psiholog clinician și profesor asociat la James. Universitatea Cook, a spus Al Jazeera. „Asta reprezintă o mare parte din cât de eficiente sunt terapiile psihologice.”

Chatboții actuali sunt incapabili de acest tip de interacțiune, iar capacitățile de procesare a limbajului natural ale ChatGPT, deși impresionante, au limite, a spus Hennessy.

„La sfârșitul zilei, este un program de calculator fantastic”, a spus ea. „Atât este tot.”

Administrația Cyberspace din China a lansat la începutul acestei luni proiecte de regulamente pentru dezvoltarea și utilizarea AI.

Amelia Fiske, cercetător senior la Institutul pentru Istoria și Etica Medicinii din Universitatea Tehnică din München, locul AI în tratamentul sănătății mintale în viitor ar putea să nu fie o situație nici/sau situație – de exemplu, tehnologia viitoare ar putea fi utilizată împreună cu un terapeut uman.

„Un lucru important de reținut este că, atunci când oamenii vorbesc despre utilizarea AI în terapie, există această presupunere că totul arată ca Wysa sau ca Woebot și nu este nevoie”, a spus Fiske. Al Jazeera.

Unii experți cred că IA își poate găsi cele mai valoroase utilizări în spatele scenei, cum ar fi efectuarea de cercetări sau ajutarea terapeuților umani să evalueze progresul pacienților lor.

„Acești algoritmi de învățare automată sunt mai buni decât sistemele de reguli ale experților atunci când vine vorba de identificarea tiparelor în date; este foarte bun în a face asocieri în date și sunt, de asemenea, foarte buni în a face predicții în date”, a declarat pentru Al Jazeera Tania Manríquez Roa, etician și cercetător calitativ la Institutul de Etică Biomedicală și Istoria Medicinei de la Universitatea din Zurich.

„Poate fi foarte util în efectuarea cercetărilor asupra sănătății mintale și poate fi, de asemenea, foarte util să identifici semne timpurii de recidivă, cum ar fi depresia, de exemplu, sau anxietatea.”

Manríquez Roa a spus că este sceptic că IA ar putea fi vreodată folosită ca substitut pentru tratamentul clinic.

„Acești algoritmi și inteligența artificială sunt foarte promițătoare, într-un fel, dar cred și că pot fi foarte dăunătoare”, a spus Manríquez Roa.

„Cred că avem dreptate să fim ambivalenți în ceea ce privește algoritmii și învățarea automată atunci când vine vorba de îngrijirea sănătății mintale, deoarece atunci când vorbim despre îngrijirea sănătății mintale, vorbim despre îngrijire și standarde adecvate de îngrijire.”

„Când ne gândim la aplicații sau algoritmi… uneori AI nu ne rezolvă problemele și poate crea probleme mai mari”, a adăugat ea. „Trebuie să facem un pas înapoi pentru a ne gândi: „Avem nevoie de algoritmi?” și dacă avem nevoie de ei, ce fel de algoritmi vom folosi?”

Sursa – www.aljazeera.com