3 Minute
DeepSeek, un startup inovator în domeniul inteligenței artificiale, a lansat recent noul său model AI, R1, care a demonstrat performanțe remarcabile în raționamentul matematic și sarcinile de programare. Cu toate acestea, sursele de date folosite pentru antrenarea modelului R1 nu au fost dezvăluite public, ceea ce a condus la speculații în rândul cercetătorilor în AI că unele date ar putea proveni de la modelele Gemini dezvoltate de Google.
Allegații privind utilizarea datelor Sam Peach, un dezvoltator din Melbourne cunoscut pentru crearea de teste ce evaluează „inteligența emoțională” a modelelor AI, afirmă că deține dovezi care indică faptul că modelul R1-0528 de la DeepSeek preferă cuvinte și structuri caracteristice lui Gemini 2.5 Pro. Într-o postare pe platforma X, Peach a susținut că modelul R1-0528 favorizează anumite tipare lingvistice similare celor utilizate în Gemini 2.5 Pro.
Deși afirmațiile lui Peach nu constituie dovadă concludentă, un alt dezvoltator cunoscut sub pseudonimul SpeechMap, care analizează „libertatea de exprimare” în modelele AI, observă că pattern-urile de procesare ale DeepSeek—în special modul de raționament folosit pentru a ajunge la răspunsuri—prezintă similitudini semnificative cu modelele Gemini de la Google.
Context istoric și acuzații anterioare Nu este prima dată când DeepSeek se confruntă cu acuzații privind metodele sale de antrenare AI. Anterior, unii dezvoltatori au raportat că modelul V3 de la DeepSeek se identifica frecvent ca ChatGPT, sugerând posibilul uz al jurnalelor de conversații ChatGPT în datele sale de antrenament. OpenAI a arătat anterior că există indicii potrivit cărora DeepSeek folosește o metodă numită „distilare” pentru instruirea modelelor—o tehnică prin care datele sunt extrase din modele AI mai avansate pentru a îmbunătăți procesul de învățare al modelelor mai mici.
Provocări în antrenarea modelelor de inteligență artificială Comunitatea AI observă că numeroase modele pot, fără intenție, să se identifice greșit sau să adopte aceleași tipare lingvistice, din cauza răspândirii conținutului generat de AI pe internet, care reprezintă o sursă principală pentru antrenarea acestor modele. Această saturație a datelor poate duce la suprapuneri în limbaj și comportament între diverse modele, complicând identificarea celor dezvoltate independent față de cele influențate de modele existente.
Concluzie Acuzațiile referitoare la modelul R1 al DeepSeek accentuează complexitatea și aspectele etice asociate cu antrenarea modelelor AI. Pe măsură ce domeniul inteligenței artificiale evoluează rapid, transparența în privința surselor de date și a metodelor de instruire devine esențială pentru menținerea încrederii și integrității în cadrul comunității. Monitorizarea continuă și dialogul deschis sunt necesare pentru a gestiona aceste provocări și pentru a promova dezvoltarea responsabilă a tehnologiilor AI.
Sursa: smarti
Comentarii