Copilot, AI-ul Microsoft, a incurcat rau un raport al politiei britanice
Un sef din politia britanica a recunoscut, cu jena, ca asistentul AI Copilot de la Microsoft a comis o gafa impardonabila intr-un raport de informatii despre fotbal. Eroarea, una catastrofala, a dus la interzicerea unor fani israelieni la un meci anul trecut. Informatia vine de la The Verge, ai caror jurnalisti tin cu ochii pe evolutia acestui caz.
Meci inexistent, consecinte reale
Raportul incrimina, practic, fanii israelieni, dar includea si un meci care nu a avut loc niciodata, o partida fantoma intre West Ham si Maccabi Tel Aviv. Se pare ca Copilot a „halucinat” meciul, l-a inventat pur si simplu, iar West Midlands Police a inclus senin eroarea in raportul sau. Craig Guildford, chief constable al West Midlands Police, a recunoscut situatia jenanta intr-o scrisoare adresata Home Affairs Committee: „vineri dupa-amiaza am devenit constient ca rezultatul eronat privind meciul West Ham v Maccabi Tel Aviv a aparut ca rezultat al utilizarii Microsoft Co Pilot [sic]”. E o situatie destul de jenanta, ce-i drept, mai ales cand te gandesti la consecinte.
Schimbarea declaratiilor
Initial, Guildford negase vehement, inca din decembrie, ca West Midlands Police a folosit AI pentru a pregati raportul, dând vina pe „social media scraping” pentru eroare. Acum, insa, realitatea iese la iveala, fara sa mai poata fi ascunsa sub pres. Maccabi Tel Aviv fanii au fost interzisi de la un meci Europa League impotriva Aston Villa in noiembrie anul trecut, deoarece Birmingham Safety Advisory Group a considerat meciul „high risk” dupa „violent clashes and hate crime offences” la un meci anterior Maccabi in Amsterdam. Practic, fara sa ridici un deget, o greseala a unui AI a dus la o decizie care a afectat oameni reali, le-a stricat planurile si i-a pus intr-o lumina proasta.
Avertismentul Microsoft
Microsoft avertizeaza, negru pe alb, in partea de jos a interfetei Copilot: „Copilot may make mistakes.” Si se pare ca nu e doar o avertizare formala, aruncata acolo de ochii lumii. The Verge mentioneaza ca au testat recent Copilot si Antonio G. Di Benedetto, colegul lor, a descoperit ca asistentul AI de la Microsoft adesea „got things wrong” si „made stuff up.” Adica, inventa informatii, fara nicio jena. Ramane de vazut cum va gestiona Microsoft aceasta problema si cum va imbunatati acuratetea Copilot, pentru ca, in momentul de fata, pare un instrument mai degraba periculos decat util.
Reactia Microsoft intarzie
The Verge a contactat Microsoft pentru a comenta de ce Copilot a inventat un meci de fotbal care nu a existat, dar compania „didn’t respond in time for publication.” Probabil ca Microsoft lucreaza febril la o explicatie, la o strategie de comunicare, dar momentan tacerea lor nu face decat sa alimenteze speculatiile si sa ingrijoreze utilizatorii. E clar ca incidentul ridica semne de intrebare serioase despre fiabilitatea instrumentelor AI in contexte sensibile, cum ar fi aplicarea legii. Cand politica intervine, e important sa ai date corecte, verificate, nu halucinatii ale unui program.