Un sistem de inteligență artificială utilizat pentru detectarea armelor a generat o alarmă falsă după ce a identificat greșit un pachet de chipsuri ca fiind un pistol. Incidentul a dus la intervenția poliției într-o școală din Baltimore, SUA.
Un adolescent din Baltimore, Taki Allen, în vârstă de 16 ani, a fost pus în cătușe de polițiști înarmați după ce un algoritm de supraveghere a școlii a interpretat greșit un pachet de Doritos pe care îl avea ca o armă de foc. Totul s-a întâmplat la scurt timp după ce băiatul a terminat antrenamentul de fotbal și a pus pachetul gol de chipsuri în buzunar.
Desfășurarea incidentului
Conform relatărilor, sistemul AI al școlii a trimis o alertă către evaluatori umani, care au stabilit că nu există nicio amenințare. Cu toate acestea, directorul școlii nu a observat această concluzie și a contactat echipa de siguranță, care a decis să cheme poliția. Au sosit opt mașini de poliție, iar agenții au intervenit cu armele scoase și l-au pus pe adolescent la pământ, încătușându-l.
- Sistemul AI a generat o alertă după ce a detectat pachetul de chipsuri ca armă
- Directorul a contactat echipa de siguranță fără să verifice anularea alertei
- La școală au ajuns opt echipaje de poliție
„Au apărut cam opt mașini de poliție, iar apoi toți au ieșit cu armele îndreptate spre mine, ordonându-mi să mă pun la pământ.”, a declarat Taki Allen pentru WMAR-2 News.
„Mi-a spus să mă pun în genunchi, m-a arestat și mi-a pus cătușe.”, a adăugat el. Poliția din Baltimore a confirmat că băiatul a fost încătușat, dar nu a fost arestat.
Reacția autorităților și a școlii
Reprezentanții Departamentului de Poliție din Baltimore au transmis că acțiunile polițiștilor au răspuns în mod adecvat și proporțional pe baza informațiilor furnizate la acel moment. Aceștia au precizat că incidentul a fost rezolvat în siguranță după ce s-a stabilit că nu exista nicio amenințare.
Kate Smith, directoarea școlii, a transmis părinților într-o scrisoare că echipa de siguranță a revizuit rapid și a anulat alerta inițială după ce a confirmat că nu exista nicio armă. „L-am contactat pe ofițerul nostru de resurse școlare (SRO) și i-am raportat incidentul, iar el a contactat secția locală pentru sprijin suplimentar.”, a spus ea. Ofițerii de poliție au răspuns la școală, au percheziționat persoana și au confirmat rapid că aceasta nu deținea nicio armă.
Efectele asupra elevului
Taki Allen a povestit că, de atunci, preferă să aștepte în interior după antrenamente, considerând că nu este suficient de sigur să stea afară, mai ales dacă mănâncă chipsuri sau bea ceva. „Nici măcar nu mai ies afară să mănânc sau să beau ceva”, a spus el.
„Nicio pungă de chipsuri nu ar trebui confundată cu o armă.”
Controverse privind tehnologia de detectare a armelor
Omnilert, principalul furnizor de detectare a armelor prin inteligență artificială implicat, susține pe site-ul său că tehnologia folosește „detectare mai fiabilă, mai puține alarme false și un sistem care funcționează cu adevărat acolo unde contează cel mai mult”. Compania recunoaște însă că detectarea armelor în condiții reale este complicată.
„Metodologia noastră centrată pe date antrenează inteligența artificială să reușească în aceste scenarii exacte, pentru că folosim date reale din condiții reale, nu simulări.”
- Omnilert afirmă că folosește date din condiții reale pentru a antrena AI-ul
- Compania susține că sistemul reduce numărul de alarme false
- Problemele de identificare corectă rămân frecvente în practică
Consilierul local Izzy Pakota a declarat: „Fac apel la Baltimore County Public Schools să revizuiască procedurile privind sistemul lor de detectare a armelor bazat pe inteligență artificială.” În plus, BBC a solicitat un răspuns de la Omnilert, însă compania nu a oferit încă un comentariu.
De asemenea, anul trecut, o altă companie, Evolv Technology, a fost interzisă să mai facă afirmații nefondate despre produsele sale, după ce a susținut că sistemul său AI poate detecta toate armele. Investigațiile BBC au arătat că aceste afirmații nu erau adevărate.
Perspectiva asupra viitorului tehnologiei în școli
Tot mai multe școli din Statele Unite folosesc sisteme AI pentru detectarea armelor, însă incidentul din Baltimore scoate la iveală riscurile și limitele acestor tehnologii. Experții avertizează că algoritmii pot fi păcăliți cu ușurință de obiecte obișnuite, cum ar fi pachetele de chipsuri, umbrelele sau cutiile metalice.
Poliția insistă că a respectat toate procedurile, însă evenimentul a generat discuții privind siguranța și eficiența sistemelor AI în mediul școlar. Mulți se întreabă dacă astfel de tehnologii ar trebui să fie revizuite sau chiar înlocuite cu soluții mai sigure, pentru a evita incidente similare pe viitor.
