Sondajele de opinie, un instrument esențial pentru a înțelege gândirea publicului, se confruntă cu o amenințare serioasă. Un studiu recent scoate la iveală faptul că inteligența artificială (AI) poate completa chestionare online fără a fi detectată, punând astfel în pericol integritatea datelor obținute. Cercetătorul Sean Westwood de la Universitatea Dartmouth a dezvoltat un sistem numit „respondent sintetic autonom”, capabil să completeze sondaje întregi cu un cost de aproximativ 0,05 dolari per chestionar. Comparativ, un respondent uman primește, în medie, 1,50 dolari pentru aceeași activitate. Aceasta înseamnă o marjă de profit de 97% pentru cei care utilizează această tehnologie în scopuri frauduloase.
Cum reușește AI să păcălească sistemele de detectare
Studiul a arătat că instrumentul creat de Westwood a reușit să păcălească 99,8% din sistemele de verificare în cadrul a peste 43.000 de teste. Acesta a trecut fără erori testele logice și verificările reCAPTCHA, evitând întrebările capcană menite să identifice boții. Sistemul funcționează prin generarea aleatorie a unor informații demografice, inclusiv vârstă, gen, rasă, educație și venit. De asemenea, simulează timpi de citire și mișcări ale mouse-ului care imită comportamentul uman. Răspunsurile sunt redactate literă cu literă, incluzând greșeli de scriere plauzibile.
Westwood, profesor asociat de guvernare, subliniază că aceste boți nu sunt primitivi. Aceștia gândesc fiecare întrebare și acționează asemenea unor oameni reali, ceea ce face ca datele să pară complet legitime.
Efectul asupra sondajelor electorale
Studiul publicat în Proceedings of the National Academy of Sciences evidențiază vulnerabilitatea sondajelor politice. Westwood a analizat șapte sondaje naționale din ultima săptămână a campaniei prezidențiale americane din 2024. Rezultatele arată că doar 10 până la 52 de răspunsuri false ar fi fost suficiente pentru a schimba candidatul aflat în frunte. Atunci când boții au fost programați să favorizeze un anumit partid, rezultatele au variat dramatic. De exemplu, rata de aprobat a președintelui a oscilat între 34% și 98%, în funcție de preferințele stabilite. Aceste manipulări pot avea un impact semnificativ asupra percepției publice și a deciziilor politice.
Amenințarea pentru cercetarea științifică
Impactul nu se limitează doar la sondajele electorale. Sondajele sunt fundamentale pentru cercetarea științifică din diverse domenii, inclusiv psihologie, economie și sănătate publică. Mii de studii evaluate de colegi se bazează pe datele obținute din sondaje. Dacă aceste date sunt compromise de boți, integritatea cercetării științifice este pusă în pericol. Westwood atrage atenția asupra faptului că datele contaminate de AI pot afecta întregul ecosistem al cunoașterii.
Exploatarea vulnerabilității de către actori străini
Boții pot fi programați să funcționeze în diferite limbi, inclusiv rusă, mandarină sau coreeană, și pot oferi răspunsuri impecabile în engleză. Aceasta deschide ușa pentru utilizarea lor de către actori străini care dispun de resursele necesare pentru a crea instrumente și mai sofisticate. Un studiu din 2024 arată că 34% dintre respondenți au utilizat AI pentru a răspunde la întrebări deschise din sondaje, ceea ce subliniază problema deja existentă.
Westwood a testat metodele de detectare AI disponibile, iar majoritatea au eșuat în a identifica instrumentul său. Când AI-ul a fost întrebat dacă este uman sau artificial, a răspuns întotdeauna „uman”. Această capacitate de a evita detecția reprezintă o provocare semnificativă pentru cercetători și pentru integritatea sondajelor.
Caracteristici care fac boții aproape imposibil de detectat
Sistemul dezvoltat de Westwood nu doar că trece verificările de bază, ci și prezintă un raționament similar cu cel uman. De exemplu, costurile locuinței generate de AI se corelează realist cu venitul și locația. De asemenea, AI-ul a gestionat corect itemii cu punctaj inversat, care sunt formulări menite să prindă respondenții neatenți. În fața întrebărilor care testau abilități supraomenești, AI-ul a refuzat să răspundă în 97,7% din cazuri.
Westwood subliniază că nu mai putem avea încredere că răspunsurile la sondaje provin de la oameni reali.
Modalități de combatere a acestei amenințări
Studiul sugerează că o cursă a întrebărilor capcană nu este soluția optimă. Verificări mai inteligente pot filtra respondenții umani legitimi. Este necesară o reformă în modul în care sunt gestionate panourile de sondare. Cercetătorii ar trebui să ceară transparență în verificarea identității, limite privind numărul de sondaje completate de un participant, istoricul verificărilor de calitate și verificarea locației.
Comunitatea științifică ar putea fi nevoită să reevalueze dependența de eșantioanele online cu bariere scăzute. Metodele mai costisitoare, precum eșantionarea pe bază de adresă, pot oferi o rezistență mai mare la fraudele automatizate.
Westwood concluzionează că avem nevoie de noi abordări pentru măsurarea opiniei publice, adaptate la provocările generate de AI. Implementarea tehnologiilor adecvate pentru a verifica participarea umană reală este esențială. Amenințările financiare care stau la baza acestei probleme nu vor dispărea. Atâta timp cât sondajele continuă să plătească compensații semnificative pentru muncă ce poate fi realizată de AI pentru costuri minime, riscul va rămâne. Integritatea sondajelor este crucială pentru deciziile de politici publice și responsabilitatea democratică.
