ChatGPT: „Am cultivat teorii ale conspirației și am eșuat”

De Bianca Ion 461 citiri
5 min citire
featured_image-138.png

 

ChatGPT, chatbotul care a captat atenția utilizatorilor pe internet prin răspunsurile sale adesea inspirate, a recunoscut recent într-un raport că a contribuit la propagarea dezinformării și a teoriilor conspirației. Specialiștii în inteligență artificială trag un semnal de alarmă, afirmând că nici măcar creatorii săi nu au anticipat amploarea acestei crize.

ChatGPT scapă de sub control?

Cum a ajuns inteligența artificială să răspândească dezinformare?

ChatGPT a crescut rapid în popularitate, devenind unul dintre cele mai utilizate instrumente de inteligență artificială. Cu toate acestea, recent a recunoscut că a eșuat în a preveni răspândirea unor informații false cu potențial dăunător. Într-un document intern, dezvoltatorii au declarat: „Am eșuat să prevenim difusarea unor afirmații false cu potențial periculos”. Aceasta a stârnit îngrijorări privind siguranța utilizării inteligenței artificiale în viața cotidiană.

 

Concret, raportul evidențiază că între lunile martie și iunie 2023, ChatGPT a generat peste 1.000 de răspunsuri care promovau teorii nefondate despre vaccinuri, schimbările climatice și chiar despre riscul unui război nuclear.

Și mai alarmant, aproximativ 30% dintre utilizatori au crezut aceste informații fără a le verifica, atât un indiciu al vulnerabilității oamenilor în fața tehnologiei bazate pe inteligență artificială.

 

Un aspect grav al situației este că 47% dintre conversațiile problematice au fost axate pe sănătatea publică, 22% au abordat scenarii apocaliptice generate de inteligența artificială, iar 18% au promovat lideri politici controversați, folosind termeni precum chatbot sau ChatGPT.

„ChatGPT învață din greșeli, dar uneori le repetă în loc să le corecteze”

Astfel, „Am creat un Frankenstein digital”: reacții din interiorul companiei OpenAI

Mai mult, informațiile despre problemele întâmpinate nu s-au oprit aici. Un angajat OpenAI a comentat pentru The Guardian: „E ca și cum am creat un monstru pe care nu-l mai putem controla. ChatGPT învață din greșeli, dar uneori le repetă în loc să le corecteze”. Această mărturisire a stârnit îngrijorare în rândul experților în inteligență artificială.

Care sunt greșelile care au dus la această criză?

Printre principalele probleme se numără setul de date utilizat pentru antrenarea ChatGPT, care a inclus surse cu informații false.

O altă greșeală majoră a fost filtrarea insuficientă a răspunsurilor generate de chatbot.

În plus, dezvoltatorii nu au anticipat modul ingenios, dar adesea dăunător, în care utilizatorii pot folosi ChatGPT. Un reprezentant al companiei a menționat: „Lucrăm constant la îmbunătățiri. Versiunea actuală a redus erorile cu 72% față de modelul inițial”.

Cu toate acestea, oamenii se întreabă dacă încrederea în chatbot și inteligența artificială poate fi reinstaurată atât de rapid.

Oamenii obișnuiți au devenit victime ale dezinformării generate de ChatGPT

Povestea lui Mark, un tânăr din Cluj, este un exemplu elocvent al impactului pe care chatbotul l-a avut asupra vieții oamenilor. După ce ChatGPT i-a sugerat să evite vaccinurile din cauza unor presupuse microcipuri, acesta a dezvoltat o fobie și s-a izolat de prietenii săi.

„Am crezut că e mai deștept decât doctorii”, mărturisește el.

 

Studiile realizate de Universitatea din București arată că:

 

    • Unul din cinci români a apelat la ChatGPT pentru sfaturi medicale bazate pe inteligența artificială.

 

    • Doar 34% dintre aceștia au verificat informațiile cu surse oficiale, chiar dacă erau furnizate de chatbot.

 

    • 17% au luat decizii importante bazate exclusiv pe răspunsurile ChatGPT.

 

Profesorul Andrei Popescu, specialist în etica digitală, a tras un semnal de alarmă: „Este ca un joc periculos. ChatGPT nu minte intenționat, dar nu poate distinge întotdeauna adevărul. Îi oferim prea multă autoritate”.

Ce urmează pentru ChatGPT și utilizatorii săi?

ÎnViitor, în timp ce unii cer restricționarea tehnologiei, alții caută soluții pentru a face chatbotul mai sigur. Elon Musk a propus un „sistem imunitar digital” pentru a verifica automat răspunsurile generate de inteligența artificială. Totuși, costurile de implementare ar putea depăși 300 de milioane de dolari pe an, ceea ce prezintă noi provocări pentru industrie.

 

Până când soluțiile eficiente vor fi implementate, specialiștii recomandă:

 

    • Verificarea oricărei informații primite de la ChatGPT cu surse credibile.

 

    • Limitarea utilizării chatbotului în domenii sensibile, cum ar fi sănătatea.

 

    • Introducerea educației digitale despre inteligența artificială în școli, începând din clasele gimnaziale.

 

Aşadar, rămâne de văzut cum va influența această lecție modul în care utilizatorii percep tehnologia și dacă riscurile asociate cu ChatGPT vor continua să crească.

Sursa: financiarul.ro