Microsoft trage linia roșie în cercetarea AI „Există domenii în care nu vom merge”

De Bianca Ion 264 citiri
3 min citire
ChatGPT-Image-4-sept.-2025-21_02_29.png

Mustafa Suleyman, directorul diviziei de inteligență artificială a Microsoft, a afirmat că doar ființele biologice pot avea conștiință, subliniind că încercările de a dovedi contrariul ar trebui să înceteze. De asemenea, el a menționat că există domenii interzise, cum ar fi dezvoltarea de chatboți erotici, pe care Microsoft nu le va aborda niciodată.

„Nu cred că este un tip de muncă pe care oamenii ar trebui să o facă. Dacă pui întrebarea greșită, ajungi la răspunsul greșit. Este pur și simplu o întrebare greșită”, a declarat Suleyman într-un interviu pentru CNBC, la conferința AfroTech din Houston.

„AI-ul doar imită emoțiile, nu le simte”

El a explicat că modelele de inteligență artificială pot imita comportamente și emoții umane, dar nu pot simți durere, tristețe sau plăcere în mod autentic.
„AI-ul nu se întristează când ‘experimentează’ durerea. Creează doar aparența unei experiențe, nu și experiența în sine”, a spus Suleyman.

Oficialul Microsoft a invocat teoria „naturalismului biologic” a filosofului John Searle, conform căreia conștiința este posibilă doar în prezența unui creier viu.
„Oamenii au drepturi pentru că pot suferi și au preferințe care implică evitarea durerii. Modelele AI nu au așa ceva. Ele doar simulează”, a explicat acesta.

Domenii interzise: Microsoft spune „nu” conștiinței artificiale și chatboților erotici

În cadrul unui alt eveniment, Paley International Council Summit din Silicon Valley, Suleyman a reiterat că Microsoft nu va dezvolta chatboți erotici, spre deosebire de alte companii rivale precum OpenAI sau xAI.

„Sunt domenii în care nu vom merge”, a afirmat el.

Suleyman s-a alăturat Microsoft în 2024, după ce gigantul american a cumpărat startup-ul Inflection AI pentru 650 de milioane de dolari. Anterior, el a fost cofondator al DeepMind, companie achiziționată de Google în 2014 pentru 400 de milioane de dolari.

O viziune echilibrată: AI „pentru oameni, nu ca o persoană”

El a explicat că obiectivul său principal este să asigure independența Microsoft în dezvoltarea propriilor modele AI.

„Satya Nadella a vrut să ne asigurăm că putem antrena modele complet proprii, cu datele noastre, de la început până la implementare”, a declarat Suleyman.

Declarațiile sale vin în contextul dezbaterilor tot mai intense despre inteligența artificială generală (AGI) și despre apropierea tehnologiei de o formă de gândire similară celei umane.

„Frica este sănătoasă, iar scepticismul este necesar. Nu avem nevoie de o accelerare fără limite”, a conchis el, subliniind că AI-ul trebuie construit pentru oameni, nu ca o persoană.