OpenAI a modificat regulile jocului: Noul ChatGPT nu mai este doar un asistent, ci un partener de cercetare

De Ursei Marius
11 min citire

O actualizare care pare tehnică, aproape banală, ascunde o mutație strategică majoră. OpenAI a anunțat pe 12 februarie 2026 o serie de îmbunătățiri aduse funcției „Deep Research” din ChatGPT, transformând ceea ce era un instrument puternic, dar oarecum rigid, într-un partener de cercetare flexibil și controlabil. Utilizatorii pot acum să direcționeze căutările către site-uri web specifice, să editeze planurile de cercetare înainte de execuție și să vizualizeze rapoartele într-o nouă interfață full-screen, cu index interactiv și surse vizibile. Pare puțin. Dar nu este. Această mișcare redefinește practic relația dintre utilizatorul profesionist și inteligența artificială, marcând un punct de inflexiune în cursa pentru dominația pieței de AI.

Până acum, funcția de cercetare aprofundată, introdusă inițial în februarie 2025, funcționa ca o cutie neagră. Îi ofereai o temă complexă și, după câteva zeci de minute, primeai un raport detaliat, sintetizând sute de surse online. Un salt uriaș de productivitate, fără îndoială. Dar și o sursă de frustrare. Nu aveai control real asupra surselor, un aspect critic pentru orice jurnalist, academician sau analist. Acum, totul se schimbă. OpenAI a predat, în sfârșit, o parte din control utilizatorului.

Ce s-a schimbat, concret, și de ce contează enorm

Anunțul OpenAI, detaliat în notele de lansare ale companiei, se concentrează pe trei piloni care, împreună, sporesc acuratețea, credibilitatea și controlul. Acestea nu sunt doar funcționalități adăugate la o listă, ci răspunsuri directe la cele mai mari critici aduse instrumentelor de cercetare bazate pe AI.

Control granular: Bisturiul în locul toporului

Cea mai importantă modificare este, de departe, posibilitatea de a restricționa căutările la anumite site-uri web. Aceasta era o funcție extrem de solicitată de comunitatea de utilizatori. Până acum, singura metodă de a influența sursele era prin instrucțiuni specifice în prompt, o metodă imprecisă și adesea ineficientă. Acum, controlul este la nivel de sistem. Un cercetător poate instrui ChatGPT să folosească exclusiv jurnale academice recunoscute, precum cele de pe JSTOR sau ScienceDirect. Un analist financiar poate prioritiza Bloomberg, Reuters și Wall Street Journal, plus rapoartele anuale ale companiilor vizate. Un jurnalist de investigație poate limita căutarea la arhive guvernamentale și baze de date juridice. Implicațiile sunt uriașe. Se reduce drastic riscul de a include informații din surse dubioase sau de pe bloguri obscure. Crește relevanța și, teoretic, acuratețea rezultatelor. Mai mult, utilizatorii pot conecta și aplicații externe, precum cele de date financiare de la London Stock Exchange Group, folosindu-le ca surse de încredere.

Planificarea devine interactivă și transparentă

A doua mare noutate este capacitatea de a edita planul de cercetare înainte ca acesta să fie executat. Înainte, ChatGPT genera un plan și începea munca. Orice ajustare se putea face doar din mers, întrerupând procesul. Acum, utilizatorul primește o propunere de plan pe care o poate modifica. Poate adăuga noi direcții de investigare, poate elimina puncte considerate irelevante sau poate reordona prioritățile. Acest lucru transformă utilizatorul dintr-un simplu solicitant într-un veritabil coordonator al cercetării. Procesul devine un dialog, nu un monolog. Transparența crește, iar produsul final are șanse mult mai mari să corespundă exact intenției inițiale.

O nouă interfață pentru claritate și profesionalism

În cele din urmă, OpenAI a renunțat la afișarea rapoartelor complexe în fereastra îngustă de chat. Noua vizualizare full-screen seamănă mai mult cu un document profesional. Pe partea stângă se află un cuprins interactiv, care permite navigarea rapidă între secțiuni, iar în dreapta sunt listate toate sursele și citările. Această schimbare de interfață, deși pare cosmetică, este esențială pentru uzabilitate. Un raport de 5.000 de cuvinte devine mult mai ușor de parcurs și verificat. Semnalul este clar: OpenAI vrea ca „Deep Research” să fie perceput ca un instrument de lucru serios, nu ca o extensie a unui chatbot conversațional.

Miza strategică: Războiul pentru supremația în cunoaștere

Dar de ce face OpenAI aceste schimbări acum? Răspunsul este simplu: competiția. Companii precum Perplexity AI au câștigat teren tocmai pentru că au oferit de la bun început răspunsuri rapide, actualizate și, cel mai important, cu surse clar citate. Perplexity s-a poziționat ca un „motor de răspunsuri”, ideal pentru cei care au nevoie de informații verificate rapid. OpenAI, cu modelul său mai generalist, risca să piardă segmentul de utilizatori profesioniști și academicieni, pentru care trasabilitatea informației este non-negociabilă. Această actualizare este un atac direct pe teritoriul competitorilor, combinând puterea de sinteză a modelelor sale lingvistice (acum actualizate la GPT-5.2 pentru această funcție) cu controlul și transparența cerute de piață.

Vedem o tendință clară în industrie, de la chatbot-uri generaliste la asistenți specializați. Piața AI este în plină expansiune, estimată să crească de la aproximativ 390 de miliarde de dolari în 2025 la peste 3.4 trilioane până în 2033. În acest context, captarea segmentului de business și cercetare este crucială. Potrivit unui studiu Wiley de la finalul lui 2025, adopția AI în rândul cercetătorilor a explodat, ajungând la 84%, de la 57% în anul precedent. Totuși, majoritatea folosesc încă unelte generaliste (80%), în parte din cauza lipsei de cunoaștere a alternativelor specializate. OpenAI vrea să se asigure că unealta sa devine standardul de facto și pentru acești utilizatori.

Impactul real: Cine câștigă și cine pierde?

Aceste noi capacități vor reverbera în mai multe domenii, creând atât oportunități, cât și noi provocări. Nu toată lumea va beneficia în mod egal.

Un accelerator periculos pentru mediul academic

Pentru cercetători și studenți, potențialul este imens. Realizarea unei analize a literaturii de specialitate, o muncă ce putea dura săptămâni, ar putea fi redusă la câteva ore. Cu posibilitatea de a limita căutările la baze de date academice, calitatea surselor crește exponențial. Dar riscurile sunt la fel de mari. Dependența excesivă de aceste unelte poate submina dezvoltarea gândirii critice. Există pericolul ca o întreagă generație de cercetători să devină experți în a formula prompt-uri, dar incapabili să evalueze critic și independent sursele. Mai mult, chiar și cu surse de încredere, modul în care AI sintetizează și interpretează informația poate introduce subtil erori sau omisiuni, care apoi riscă să fie propagate în lanț în alte lucrări științifice.

Jurnalismul, între augmentare și atrofiere

În redacții, un astfel de instrument poate fi o mană cerească. Jurnaliștii pot agrega rapid informații de context, pot verifica date din surse multiple și pot identifica tendințe în volume mari de documente. Pentru jurnalismul de investigație, capacitatea de a interoga selectiv arhive și rapoarte oficiale este un avantaj clar. Dar, la fel ca în mediul academic, există un revers al medaliei. Procesul de documentare, adesea anevoios, este și cel în care jurnalistul descoperă nuanțe, piste neașteptate și înțelege în profunzime contextul unui subiect. Automatizarea acestui proces riscă să ducă la un jurnalism mai superficial, mai eficient în producție, dar mai sărac în conținut. Iar dilemele etice, de la transparența față de cititor privind folosirea AI la riscul de a amplifica bias-uri algoritmice, devin și mai presante.

O nouă dilemă: Bula de filtru la comandă

O funcție aparent benefică, precum restrângerea căutărilor la site-uri specifice, ascunde un risc sistemic. Ce se întâmplă când un utilizator alege să își ancoreze cercetarea exclusiv în surse care îi confirmă propriile convingeri? Instrumentul devine cel mai puternic mecanism de creare a bulelor de filtru și a camerelor de ecou văzut vreodată. Un grup de lobby poate genera rapoarte extrem de elaborate și aparent bine documentate, bazate exclusiv pe propriile materiale și pe cele ale aliaților. Un stat autoritar poate folosi aceeași funcție pentru a produce analize care ignoră complet orice sursă de informație critică. Controlul oferit utilizatorului este, în același timp, o armă puternică pentru consolidarea și legitimarea dezinformării. Responsabilitatea verificării și a menținerii unei perspective echilibrate cade, mai mult ca niciodată, pe umerii utilizatorului uman.

Sam Altman, CEO-ul OpenAI, a spus odată că „AI nu va înlocui oamenii. Dar oamenii care folosesc AI îi vor înlocui pe cei care nu o fac”. Actualizarea funcției „Deep Research” este cea mai clară materializare a acestei viziuni. Nu mai vorbim despre un simplu instrument care execută comenzi. Vorbim despre un parteneriat om-mașină în procesul de cunoaștere. Un parteneriat care promite o productivitate fără precedent, dar care cere în schimb un nivel de vigilență, scepticism și responsabilitate etică mai ridicat ca oricând. Trecem de la era în care întrebam AI-ul „ce știi?” la una în care trebuie să îl întrebăm constant „de unde știi și de ce crezi asta?”. Iar răspunsul la această a doua întrebare va defini viitorul muncii intelectuale.