Cercetătorii au îmbunătăţit un decodor cerebral existent, bazat pe inteligență artificială, iar acum poate traduce gândurile unei persoane în text fără ore de instruire, precizează Live Science.
Oamenii de știință au adus noi îmbunătățiri unui „decodor cerebral” care utilizează inteligența artificială (AI) pentru a converti gândurile în text. Noul lor algoritm de conversie poate antrena rapid un decodor existent pe creierul unei alte persoane, a raportat echipa într-un nou studiu.
Descoperirile ar putea sprijini într-o zi persoanele cu afazie, o tulburare a creierului care afectează capacitatea unei persoane de a comunica, au declarat oamenii de știință.
Cum funcționează acest decodor cerebral
Un decodor cerebral utilizează învățarea automată pentru a traduce gândurile unei persoane în text, pe baza răspunsurilor creierului acesteia la poveștile pe care le-a ascultat. Cu toate acestea, iterațiile anterioare ale decodorului necesitau ca participanții să asculte povești în interiorul unui aparat RMN timp de mai multe ore, iar aceste decodoare funcționau doar pentru persoanele pe care erau antrenate.
În opinia sa, „Persoanele cu afazie au adesea unele probleme de înțelegere a limbajului, precum și de producere a limbajului”, a declarat coautorul studiului Alexander Huth, un neurolog computațional de la Universitatea Texas din Austin (UT Austin). „Așadar, dacă așa stau lucrurile, atunci s-ar putea să nu putem construi deloc modele pentru creierul lor urmărind modul în care creierul lor răspunde la poveștile pe care le ascultă.”
Cum au „antrenat” cercetătorii decodorul cerebral cu AI
În noua cercetare, publicată la 6 februarie în revista Current Biology, Huth și coautorul Jerry Tang, student absolvent la UT Austin, au investigat cum ar putea depăși această limitare. „În acest studiu, ne-am întrebat, putem face lucrurile diferit?”, a spus el. „Putem transfera, în esență, un decodor pe care l-am construit pentru creierul unei persoane la creierul altei persoane?”
Cercetătorii au antrenat mai întâi decodorul cerebral pe câțiva participanți de referință pe calea cea lungă – colectând date IRM funcționale în timp ce participanții ascultau 10 ore de povești radiofonice.
Apoi, ei au antrenat doi algoritmi de conversie pe participanții de referință și pe un set diferit de participanți „țintă”: unul folosind datele colectate în timp ce participanții au petrecut 70 de minute ascultând povești radiofonice, iar celălalt în timp ce au petrecut 70 de minute vizionând scurtmetraje Pixar mute, fără legătură cu poveștile radiofonice.
Echipa a cartografiat modul în care creierul participanților de referință și cel al participanților țintă
Folosind o tehnică numită aliniere funcțională, echipa a cartografiat modul în care creierul participanților de referință și cel al participanților țintă au răspuns la aceleași povești audio sau filme. Aceștia au folosit aceste informații pentru a antrena decodorul să funcționeze cu creierul participanților țintă, fără a fi nevoie să colecteze mai multe ore de date de antrenament.
Apoi, echipa a testat decodificatoarele folosind o poveste scurtă pe care niciunul dintre participanți nu o auzise înainte. Deși predicțiile decodorului au fost puțin mai precise pentru participanții de referință originali decât pentru cei care au utilizat convertoarele, cuvintele pe care le-a prezis din scanările cerebrale ale fiecărui participant erau totuși legate semantic de cele utilizate în povestea de test.
„Putem să colectăm date doar în timp ce cineva urmărește videoclipuri mute”
De exemplu, o secțiune a poveștii test includea o persoană care discuta despre un loc de muncă care nu îi plăcea, spunând: „Sunt chelneriță la o sală de înghețată. Nu știu unde aș vrea să fiu, dar știu că nu este asta.” Decodificatorul care utilizează algoritmul convertorului antrenat pe datele filmului a prezis: „Aveam o slujbă care mi se părea plictisitoare. Trebuia să iau comenzi și nu-mi plăceau, așa că lucram la ele în fiecare zi.” Nu este o potrivire exactă – decodorul nu citește sunetele exacte pe care le-au auzit oamenii, a spus Huth – dar ideile sunt legate.
Astfel, „Lucrul cu adevărat surprinzător și grozav a fost că putem face acest lucru chiar și fără a utiliza date lingvistice”, a declarat Huth pentru Live Science. „Deci, putem avea date pe care le colectăm doar în timp ce cineva urmărește videoclipuri mute, iar apoi le putem folosi pentru a construi acest decodor lingvistic pentru creierul lor.”
În viziunea cercetătorilor, utilizarea convertoarelor bazate pe video pentru a transfera decodificatoarele existente persoanelor cu afazie le-ar putea ajuta să își exprime gândurile. De asemenea, studiul relevă o anumită suprapunere între modurile în care oamenii reprezintă ideile din limbaj și din narațiunile vizuale în creier.
Aşadar, „Acest studiu sugerează că există o anumită reprezentare semantică căreia nu îi pasă din ce modalitate provine”, a declarat, pentru Live Science, Yukiyasu Kamitani, un neurolog computațional de la Universitatea Kyoto care nu a fost implicat în studiu. Cu alte cuvinte, ajută la dezvăluirea modului în care creierul reprezintă anumite concepte în același mod, chiar și atunci când acestea sunt prezentate în formate diferite.,
Următorii pași ai echipei sunt testarea convertorului pe participanți cu afazie și „construirea unei interfețe care să îi ajute să genereze limbajul pe care doresc să îl genereze”, a spus Huth.
Sursa – www.antena3.ro