10 Minute
De obicei Sam Altman nu vorbește ca un om pregătit pentru o confruntare în sala de judecată. De data aceasta, însă, a sunat astfel.
După valul de critici legat de colaborarea recent dezvăluită a OpenAI cu Departamentul Apărării al Statelor Unite, CEO-ul companiei afirmă că va rescrie clauzele acordului pentru a lămuri un lucru esențial: sistemele de inteligență artificială OpenAI nu trebuie folosite pentru supravegherea în masă a cetățenilor americani.
Altman a publicat un memoriu intern, transmis inițial angajaților, în care detaliază modificarea. Limbajul actualizat, spune el, va interzice în mod explicit supravegherea internă intenționată a persoanelor și naționalilor din SUA, ancorând această restricție în cadrul juridic existent, precum Al patrulea Amendament, Legea securității naționale și Legea privind supravegherea informațiilor străine (FISA).
Formularea propusă din memoriu este neobișnuit de clară pentru un contractor guvernamental. Textul precizează că, în conformitate cu legislația aplicabilă a SUA, sistemul AI "nu va fi folosit în mod intenționat pentru supravegherea internă a persoanelor și naționalilor din SUA". În plus, adaugă o propoziție clarificatoare menită să închidă portițele legale, subliniind că interdicția acoperă urmărirea sau monitorizarea deliberată, chiar și atunci când aceasta se bazează pe informații personale sau identificabile achiziționate comercial.
Un ajustament de contract — și o linie trasă în nisip
Altman susține, de asemenea, că Departamentul Apărării a confirmat o altă preocupare pe care criticii o exprimaseră imediat: serviciile OpenAI nu vor fi redirecționate către agențiile de informații americane, cum ar fi NSA, în baza acordului actual. Dacă această situație s-ar schimba, spune el, ar fi necesară o modificare contractuală oficială.
Apoi a urmat fraza care s-a răspândit cel mai rapid în media: Altman a scris că, dacă ar primi un ordin pe care l-ar considera neconstituțional, ar prefera să meargă la închisoare decât să se conformeze. Este o formulare dramatică, desigur — dar transmite și un semnal clar că OpenAI încearcă să traseze o linie fermă între munca pentru apărare și monitorizarea internă, distincție care tinde să se estompeze atunci când intră în scenă tehnologia AI.
El a recunoscut, totodată, că modul în care a fost făcut anunțul a fost defectuos. În relatarea sa, OpenAI a publicat comunicatul prea repede — a explicat că problemele sunt extrem de complexe și necesitau o comunicare mai clară. Scopul, a argumentat, a fost de a calma tensiunea și de a evita un rezultat mult mai grav. Din păcate, sincronizarea a făcut ca parteneriatul să pară oportunist.
Și sincronizarea chiar a fost una dificilă. Parteneriatul OpenAI a apărut imediat după ce președintele Donald Trump a emis un ordin prin care agențiile guvernamentale americane au fost sfătuite să oprească utilizarea Claude și a altor servicii oferite de Anthropic. Este demn de menționat că Anthropic colaborează cu guvernul federal încă din 2024.
Contextul legal și garanțiile invocate
Legătura explicită între interzicerea supravegherii și clauzele constituționale sau legislative nu este doar o formulare retorică. Al patrulea Amendament protejează cetățenii împotriva perchezițiilor și confiscărilor nejustificate, iar FISA reglementează colectarea de informații externe și domestică în anumite condiții strict definite. Includerea acestor garanții în contracte sau memorii operaționale pune aceste dispoziții în relatie directă cu utilizarea tehnologiilor AI în contexte guvernamentale.
Prin conexiunea la instrumentele legale existente, OpenAI încearcă să creeze o barieră contractuală care să se alinieze la protecțiile constituționale și la reglementările privind supravegherea. Acest lucru poate fi interpretat ca o abordare precaută, dar și ca un semnal politic: companiile private care furnizează sisteme de inteligență artificială sunt conștiente că transparența și respectarea drepturilor civile sunt esențiale pentru menținerea încrederii publice.
Imposibilitatea ocolirii prin date comerciale
O precizare notabilă din memoriu se referă la situațiile în care datele comerciale sau informațiile personale achiziționate ar putea fi folosite pentru monitorizare. Textul propus interzice urmărirea deliberată chiar și atunci când aceasta este alimentată de seturi de date cumpărate de pe piață. Aceasta reflectă o preocupare tehnică reală: modelele AI pot face coroborări și inferențe din date disparate, iar combinația dintre surse comerciale și capacități de procesare poate recrea efecte de supraveghere la scară largă.
Prin urmare, interdicția nu se limitează la date colectate direct de agenții guvernamentale, ci se extinde la orice formă de utilizare intenționată care conduce la monitorizare sau urmărire a persoanelor sau grupurilor. Această poziție este importantă din perspectiva protecției datelor și a legislației privind viața privată, unde linia dintre date anonimizate și date reidentificabile este adesea subiect de dezbatere tehnică și juridică.
Anthropic, garduri de siguranță și presiunea politică
Povestea mai profundă din spatele acestei discuții nu se reduce la o singură clauză contractuală — este vorba despre diviziunea tot mai clară dintre principalele laboratoare de AI în privința a ceea ce vor sau nu vor permite ca modelele lor să facă atunci când sunt în mâinile guvernelor.
Conform relatărilor menționate în memoriul lui Altman, conducerea Departamentului Apărării și secretarul Pete Hegseth ar fi exercitat presiuni asupra Anthropic pentru a slăbi mecanismele de siguranță ale lui Claude, astfel încât modelul să poată fi folosit pentru orice scop considerat "legal". În acest context, lista de utilizări "legale" ar fi inclus supravegherea în masă și munca îndreptată spre dezvoltarea armelor complet autonome.
Refuzul Anthropic și reacțiile publice
Anthropic a refuzat. Într-un comunicat, compania a precizat că "nicio intimidare sau pedeapsă" nu îi va schimba poziția privind supravegherea internă în masă sau dezvoltarea armelor complet autonome. Ordinul președintelui Trump a urmat, iar Departamentul Apărării ar fi început demersuri pentru a eticheta Anthropic ca un "risc la adresa lanțului de aprovizionare" — o clasificare folosită mai frecvent pentru firme străine, adesea chineze, suspectate de legături cu guverne.
Etichetarea ca risc la adresa lanțului de aprovizionare are implicații practice: poate restricționa colaborările, accederea la resurse guvernamentale și contractele publice, și poate afecta încrederea partenerilor comerciali. În același timp, utilizarea acestei etichete într-un context intern declanșează dezbateri despre criteriile și transparența evaluărilor de risc.
Presiunea competitivă și teatrul politic
Altman spune că le-a spus oficialilor americani că Anthropic nu ar trebui etichetată ca risc la adresa lanțului de aprovizionare și că spera ca Pentagonul să-i ofere Anthropic același tip de acord pe care l-a acceptat OpenAI. Într-o sesiune AMA pe X, el a adăugat o precizare: nu cunoaște detaliile de finețe ale acordului Anthropic sau în ce măsură diferă acesta. Dar dacă ar fi fost, în esență, același, el consideră că Anthropic ar fi trebuit să-l accepte.
Aceasta nu este doar o dispută de politici publice — este și o scenă competitivă desfășurată public. Diferențele de poziționare privind etica, siguranța și cooperarea cu guvernul devin instrumente prin care firmele concurează pentru încrederea utilizatorilor, pentru contracte și pentru sprijin public. Într-o industrie în care reputația și percepția publică pot influența adopția tehnologiei, aceste dezbateri au consecințe comerciale directe.
Reacțiile utilizatorilor și piața aplicațiilor
După apariția știrii despre acordul OpenAI cu Departamentul Apărării, Claude a urcat rapid în topul aplicațiilor gratuite din App Store al Apple, depășind ChatGPT și Google Gemini. Anthropic a reacționat prompt, lansând un instrument de importare a memoriilor menit să faciliteze schimbarea dintre chatboti. Între timp, conform datelor Sensor Tower, numărul dezinstalărilor ChatGPT a crescut cu 295% de la o zi la alta.
Astfel de mișcări pe piață arată cât de rapidă și volatilă poate fi încrederea utilizatorilor. O schimbare percepută în termenii de utilizare sau în sfera de aplicare a unei tehnologii poate determina migrarea masivă a utilizatorilor spre alternative, chiar dacă diferențele tehnice sunt minore. Diferența constă în percepție: dacă utilizatorii simt că gardurile de siguranță sunt negociabile, reacția poate fi imediată și semnificativă.
Implicații pentru încredere și reglementare
Discuția nu se reduce doar la limite constituționale și la formulări contractuale. Este, în esență, despre încredere: cât de repede poate aceasta să se erodeze atunci când părțile interesate consideră că standardele de protecție pot fi modificate. Pe termen lung, industria IA se va confrunta cu întrebări despre responsabilitate, auditabilitate și mecanisme de control independente care să asigure respectarea angajamentelor privind utilizarea etică a tehnologiei.
Reglementatorii și factorii de decizie politică vor urmări cu atenție aceste evoluții. Clarificările contractuale, prevederile explicite referitoare la folosirea datelor comerciale și angajamentele privind nefolosirea tehnologiilor pentru supraveghere internă pot deveni modele pentru viitoare politici publice sau standarde industriale.
De asemenea, rămân întrebări tehnice privind auditul, trasabilitatea deciziilor modelului și capacitatea de a demonstra, în mod verificabil, că nu au avut loc utilizări nepermise. Tehnici precum jurnalizarea apelurilor API, marcare de metadate, evaluări independente de impact asupra confidențialității și revizuiri periodice de conformitate pot intra în pachetul minim de bune practici pentru furnizorii de AI care colaborează cu entități guvernamentale.
Concluzii și perspective
Cazul OpenAI — Anthropic și reacțiile politice conexe subliniază complexitatea intersecției dintre tehnologie, securitate națională și drepturile civile. Pe măsură ce modelele de inteligență artificială devin tot mai performante, discuțiile despre limitările lor, despre responsabilitatea furnizorilor și despre rolul guvernelor în a defini condițiile de utilizare se vor intensifica.
Indiferent de poziționările publice ale companiilor, succesul pe termen lung al tehnologiilor AI va depinde de o combinație de guvernanță responsabilă, transparență tehnică și angajamente contractuale credibile. Măsurile concrete — de la clauze contractuale explicite până la mecanisme independente de audit — pot ajuta la menținerea încrederii publice, condiție esențială pentru adoptarea pe scară largă.
În final, disputa nu este doar juridică sau tehnică: este și culturală și comercială. Companiile care reușesc să îmbine respectul pentru drepturile civile cu inovația tehnologică și cu un model de afaceri responsabil au șanse mai mari să câștige nu doar contracte guvernamentale, ci și susținerea unei baze largi de utilizatori. Rămâne de văzut cum se vor cristaliza normele și practicile din această fază timpurie a dezvoltării IA puternice.
Lasă un Comentariu