OpenAI susține o lege care o scapă de răspundere pentru dezastre cu 100 de morți

OpenAI sprijină un proiect de lege din statul Illinois care ar proteja companiile de inteligență artificială de răspundere juridică în cazuri extreme. Propunerea vizează situațiile în care modelele AI sunt folosite pentru a provoca daune societale grave, cum ar fi moartea a cel puțin 100 de persoane sau pagube materiale de peste 1 miliard de dolari.
Efortul pare să marcheze o schimbare în strategia legislativă a companiei.
Până acum, OpenAI a jucat mai mult în defensivă, opunându-se proiectelor care ar fi putut trage la răspundere laboratoarele AI pentru daunele provocate de tehnologia lor. Mai mulți experți în politici AI au declarat pentru WIRED că proiectul de lege SB 3444, care ar putea stabili un nou standard pentru industrie, este o măsură mult mai extremă decât cele susținute de OpenAI în trecut.
Cum funcționează imunitatea propusă
Proiectul de lege SB 3444 i-ar absolvi pe dezvoltatorii de AI de frontieră de răspundere pentru „daune critice” cauzate de modelele lor, atâta timp cât nu au provocat intenționat sau din neglijență un astfel de incident. O altă condiție este ca aceștia să fi publicat pe site-urile lor rapoarte de siguranță, securitate și transparență. Legea definește un „model de frontieră” ca fiind orice model AI antrenat cu costuri de calcul de peste 100 de milioane de dolari, o categorie care ar include probabil cele mai mari laboratoare din America, precum OpenAI, Google, xAI, Anthropic și Meta.
„Susținem astfel de abordări deoarece se concentrează pe ceea ce contează cel mai mult: reducerea riscului de daune grave de la cele mai avansate sisteme AI, permițând în același timp ca această tehnologie să ajungă în mâinile oamenilor și ale afacerilor – mici și mari – din Illinois”, a declarat purtătorul de cuvânt al OpenAI, Jamie Radice, într-un comunicat. „Ele ajută, si, la evitarea unui mozaic de reguli de la stat la stat și la avansarea către standarde naționale mai clare și mai consistente.”
Printre „daunele critice” enumerate în proiect se numără utilizarea AI de către un actor rău intenționat pentru a crea o armă chimică, biologică, radiologică sau nucleară. Dacă un model AI ar comite astfel de acțiuni, laboratorul din spatele său nu ar putea fi tras la răspundere dacă îndeplinește condițiile menționate.
Opoziție puternică și un istoric de reglementare strictă
Însă, proiectul are șanse mici de a fi adoptat, având în vedere reputația statului Illinois de a reglementa agresiv tehnologia. Scott Wisor, director de politici la Secure AI Project, susține această idee. „Am chestionat oamenii din Illinois, întrebându-i dacă ei cred că firmele de AI ar trebui să fie scutite de răspundere, iar 90% dintre oameni se opun. Nu există niciun motiv pentru care companiile AI existente ar trebui să se confrunte cu o răspundere redusă”, spune Wisor.
El notează că legislatorii din Illinois au depus și proiecte de lege care cresc răspunderea dezvoltatorilor de modele AI. În august anul trecut, statul a devenit primul din țară care a adoptat o legislație ce limitează utilizarea AI în serviciile de sănătate mintală. Illinois a fost, si, unul dintre primele state care a reglementat colectarea datelor biometrice, adoptând Legea privind confidențialitatea informațiilor biometrice încă din 2008.
În mărturia sa în favoarea legii, Caitlin Niedermeyer, membră a echipei de Afaceri Globale a OpenAI, a pledat pentru un cadru federal de reglementare. Ea a susținut că este important să se evite „un mozaic de cerințe statale inconsecvente care ar putea crea fricțiuni fără a îmbunătăți în mod real siguranța”.
„La OpenAI, credem că Steaua Polară pentru reglementarea de frontieră ar trebui să fie implementarea sigură a celor mai avansate modele, într-un mod care să păstreze și leadership-ul SUA în inovație”, a spus Niedermeyer.
În absența unei legislații federale, state precum California și New York au adoptat deja legi care obligă dezvoltatorii de modele AI să prezinte rapoarte de siguranță și transparență. În același timp, OpenAI se confruntă deja cu procese intentate de familii ale căror copii s-au sinucis după ce ar fi dezvoltat relații nesănătoase cu ChatGPT.









