Alerta de încredere ChatGPT pentru riscul de auto-vătămare

Alerta de încredere ChatGPT pentru riscul de auto-vătămare

1 Comentarii

5 Minute

Unii oameni tratează ChatGPT ca pe o casetă de căutare. Alții îi vorbesc ca și cum ar trimite un mesaj unui prieten la 2 dimineața, când somnul nu vine. Acest al doilea mod de folosire a împins inteligența artificială într-un teritoriu mult mai greu decât demonstrațiile de produs și ajutorul pentru programare, iar OpenAI răspunde acum cu o funcție concepută pentru momentele în care o conversație pare să devină periculoasă.

Noua unealtă, numită Trusted Contact, începe să fie lansată în setările ChatGPT pentru utilizatorii adulți. Scopul ei este simplu pe hârtie: să permită unui utilizator să aleagă o persoană care poate fi notificată dacă sistemul detectează un risc serios de auto-vătămare. În practică, OpenAI încearcă să construiască o plasă de siguranță fără a transforma conversațiile private în alerte automate.

Configurarea este voluntară. Utilizatorii pot nominaliza o singură persoană de încredere, dar acea persoană trebuie să îndeplinească cerința de vârstă: cel puțin 18 ani în majoritatea regiunilor, sau 19 ani în Coreea de Sud. Odată selectată, persoana de contact primește o invitație care explică rolul și are șapte zile pentru a accepta. Dacă refuză, utilizatorul poate alege pe altcineva.

Ce urmează este locul în care OpenAI încearcă clar să evite depășirea limitelor. Alerta nu este trimisă automat în momentul în care sistemul detectează un limbaj îngrijorător. Mai întâi, ChatGPT îi spune utilizatorului că persoana de încredere poate fi notificată. De asemenea, încurajează utilizatorul să contacteze direct acea persoană, oferind chiar sugestii despre cum să înceapă conversația. După aceea, un grup mic de recenzori umani special instruiți examinează cazul. Doar dacă aceștia confirmă că situația indică un risc serios de auto-vătămare, OpenAI trimite o notificare.

Aceea notificare poate ajunge prin e-mail, mesaj text sau prin aplicație. Nu include jurnale ale conversațiilor, citate sau un rezumat al discuției. În schimb, spune simplu persoanei de încredere că s-a menționat auto-vătămarea într-un context îngrijorător și o roagă să ia legătura. OpenAI afirmă că își propune să finalizeze revizuirea umană în mai puțin de o oră.

Unde se încadrează aceasta în efortul mai amplu de siguranță al OpenAI

Acest lucru nu apare izolat. OpenAI a introdus deja funcții de siguranță legate de conturile adolescenților, inclusiv alerte pentru părinți când conturile conectate arată semne de suferință. Trusted Contact extinde această idee la adulți, ceea ce spune multe despre modul în care compania vede acum utilizarea ChatGPT. Chatbotul nu mai este doar un asistent de productivitate. Pentru mulți utilizatori, a devenit un loc pentru conversații profund personale, încărcate emoțional.

Potrivit OpenAI, funcția a fost dezvoltată cu contribuții din partea clinicienilor, cercetătorilor și grupurilor de sănătate mintală, inclusiv Asociația Americană de Psihologie. Această implicare externă contează. Orice instrument care atinge riscul de auto-vătămare, confidențialitatea și răspunsul la criză se situează într-un spațiu sensibil unde deciziile de design au consecințe reale.

Există și limite clare. Trusted Contact nu este un înlocuitor pentru o linie de criză, serviciile de urgență sau sprijinul profesional în sănătate mintală. OpenAI spune că ChatGPT va continua să direcționeze utilizatorii către aceste resurse atunci când este necesar. Utilizatorii își pot elimina sau schimba persoana de contact aleasă în orice moment, iar persoana de contact se poate retrage oricând dorește.

Există un mesaj mai subtil în această lansare. OpenAI recunoaște ceva în jurul căruia industria tech a ezitat o vreme: oamenii își aduc deja cele mai vulnerabile momente la chatboții cu inteligență artificială. Fie că companiile au intenționat asta sau nu, nu mai contează prea mult. Comportamentul este prezent. Funcții precum Trusted Contact sunt o încercare de a răspunde la această realitate cu puțină mai multă prudență, mai multă umanitate și recunoașterea faptului că niciun chatbot, oricât de avansat, nu ar trebui să fie singura voce din încăpere atunci când lucrurile se întunecă.

Lasă un Comentariu

Comentarii