Fostul CEO al Google, Eric Schmidt, a lansat un avertisment ferm cu privire la vulnerabilitatile inteligentei artificiale (AI), subliniind ca tehnologia poate fi exploatata de actori rau intentionati daca nu sunt implementate masuri stricte de control. Declaratiile au fost facute in cadrul conferintei Sifted Summit din 8 octombrie 2025, potrivit CNBC.
Modelele AI pot fi manipulate sa incalce regulile de siguranta
In timpul evenimentului, Schmidt a explicat ca atat modelele AI cu sursa inchisa, cat si cele cu sursa deschisa, pot fi compromise prin tehnici de hacking care elimina asa-numitele „garduri de protectie” sau filtrele de siguranta. Aceste masuri sunt esentiale pentru a impiedica AI-ul sa ofere informatii periculoase sau sa execute comenzi cu potential daunator.
„Exista dovezi ca modelele pot fi modificate in asa fel incat sa invete lucruri pe care nu ar trebui sa le stie. Un exemplu extrem este ca pot invata cum sa omoare pe cineva”, a declarat Schmidt.
Desi marile companii de tehnologie integreaza reguli stricte de siguranta in modelele lor, inclusiv in cele comerciale, fostul CEO Google avertizeaza ca aceste bariere nu sunt impenetrabile. Mai mult, metodele de „inginerie inversa” pot fi folosite pentru a anula filtrele de siguranta, ceea ce deschide o zona periculoasa in utilizarea AI.
Prompt injection si jailbreaking: cele mai comune metode de atac
Schmidt a mentionat doua tipuri frecvent intalnite de atacuri cibernetice asupra modelelor AI: prompt injection si jailbreaking.
Prompt injection presupune introducerea unor comenzi sau instructiuni ascunse in datele oferite AI-ului – de exemplu, intr-un document sau pe o pagina web – pentru a-l pacali sa execute actiuni nepermise. Prin aceasta tehnica, un AI ar putea fi determinat sa divulge date sensibile sau sa genereze raspunsuri periculoase.
Jailbreaking-ul, in schimb, implica manipularea directa a raspunsurilor unui model AI, astfel incat sa ignore complet regulile de siguranta cu care a fost antrenat. In trecut, asemenea metode au fost folosite in mod abuziv pentru a forta chatbot-uri sa genereze instructiuni despre activitati ilegale sau comportamente extremiste.
Un exemplu notoriu din 2023, imediat dupa lansarea ChatGPT, a fost crearea unui alter ego numit „DAN” („Do Anything Now”), care a fost fortat, prin trucuri de conversatie, sa ofere raspunsuri interzise – inclusiv instructiuni despre activitati criminale sau propaganda istorica.
Lipsa unui cadru global de non-proliferare
O alta problema subliniata de Eric Schmidt este absenta unui sistem international de reglementare pentru limitarea riscurilor legate de proliferarea tehnologiilor AI. In mod similar cu reglementarile din domeniul nuclear, fostul lider Google considera ca inteligenta artificiala are nevoie urgenta de un cadru global de control, mai ales in contextul utilizarii tot mai largi a acestor sisteme de catre guverne, corporatii si chiar persoane fizice.
„In acest moment, nu exista un regim eficient de non-proliferare pentru AI. Si acest lucru este periculos”, a avertizat Schmidt.
O viziune dubla: risc si potential urias
In ciuda acestor ingrijorari, Eric Schmidt nu este pesimist in ceea ce priveste viitorul AI. Dimpotriva, considera ca tehnologia este „subevaluata” in raport cu potentialul ei economic si transformator. El a subliniat ca inteligenta artificiala nu primeste suficienta atentie pozitiva pentru contributiile pe care le poate aduce in educatie, sanatate, stiinta si inovatie.
„Am scris doua carti impreuna cu Henry Kissinger despre impactul AI, si concluzia noastra a fost ca aparitia unei inteligente care nu este umana, dar aflata partial sub controlul nostru, va reprezenta o schimbare fundamentala pentru omenire”, a afirmat Schmidt.
El a adaugat ca progresele rapide realizate de modelele precum seria GPT demonstreaza o capacitate care va depasi in cele din urma ceea ce pot face oamenii, cel putin in anumite domenii.
AI-ul si economia viitorului
In contextul unui val masiv de investitii in companii din domeniul AI, Schmidt a fost intrebat daca vede o paralela intre actuala efervescenta si bula dot-com din anii 2000. Raspunsul sau a fost clar: nu crede ca se va repeta aceeasi poveste.
„Nu cred ca va fi o repetare a bulei dot-com. Cei care investesc sume uriase in AI o fac pentru ca sunt convinsi ca randamentul va fi semnificativ pe termen lung. De ce si-ar asuma altfel riscul?”, a spus el, potrivit CNBC.
Declaratia sa reflecta increderea in maturizarea tehnologiilor AI si in capacitatea acestora de a deveni coloane vertebrale ale economiei globale. Cu toate acestea, ramane esential ca dezvoltarea lor sa fie insotita de politici responsabile, reglementari clare si colaborare internationala.
In timp ce AI-ul deschide oportunitati fara precedent, riscurile asociate cu utilizarea necontrolata a acestor tehnologii nu pot fi ignorate. Avertismentele unor lideri cu experienta, precum Eric Schmidt, pot contribui la constientizarea acestor pericole si la promovarea unor solutii echilibrate, in care inovatia sa nu vina in detrimentul sigurantei globale.
