9 Minute
Pe măsură ce instrumentele bazate pe inteligență artificială pătrund tot mai adânc în educație, muncă și viața cotidiană, apare o întrebare esențială: ne slăbesc aceste tehnologii capacitatea de a gândi critic sau o pot întări? Studiile preliminare, observațiile din sălile de curs și vocea experților sugerează că răspunsul nu este simplu — depinde de cum le integrăm.
Context științific: ce știm despre creier și AI
În ultimii ani, cercetările din neuroștiințe au demonstrat că mintea umană combină procese statistice asemănătoare modelării bayesiene cu intuiții rapide, marcatori somatici și capacități imaginaționale care nu se reduc la calcule. Antonio Damasio și alți cercetători au evidențiat rolul „marcatorilor somatici” — semnale fiziologice asociate emoțiilor care ne grăbesc deciziile în contexte complexe. Aceste mecanisme ne permit să facem salturi intuitive și să detectăm excepții care ar scăpa unui algoritm pur statistic.
Modelele de tip LLM (Large Language Models) și alte sisteme de inteligență artificială excelează la procesarea rapidă a cantităților mari de date, la generarea de text plausibil și la identificarea pattern-urilor statistice. Totuși, ele rămân limitate în ceea ce privește experiența trăită, judecata morală sau reflecția contextuală. În termeni practici: AI poate să ne ofere analogii, sugestii și sinteze, dar nu poate simți, nu trăiește situații și nu poate produce sensul uman autonom.
Recent, un studiu realizat la MIT Media Lab a ridicat semnalul de alarmă privind „atrofia cognitivă” datorată utilizării excesive a soluțiilor AI — un concept care merită atenție, dar trebuie contextualizat: cercetarea este mică și nepeer‑review, deci oferă indicii, nu certitudini. E un apel la prudență, nu o sentință definitivă.

Cum ne poate ajuta AI: instrument sau catalizator al învățării?
Există moduri în care AI poate amplifica învățarea și gândirea critică. Dacă un student folosește un asistent generativ pentru a testa ipoteze, a genera exemple sau a compara abordări, acel instrument poate funcționa ca un partener de dialog care stimulează rafinarea raționamentului. De pildă, un model poate sugera perspective alternative pentru un eseu sau poate evidenția erori logice dintr‑o explicație, oferind material pentru reflecție.
Dan Levy, specialist în politici publice și coautor de materiale despre utilizarea pedagogică a ChatGPT, subliniază distincția dintre a folosi AI ca „facilitator al muncii cognitive” și a-l folosi pentru a produce rezultate în locul procesului mental. Dacă studiul are ca scop învățarea, output‑ul — temele sau proiectele — este doar un vehicul; procesul intern de construire a sensului rămâne fundamental. În consecință, instrumentele care automatizează complet munca riscă să îi privez de practică pe studenți, dacă nu sunt integrate deliberat în sarcini care cer angajament cognitiv.
Un exemplu practic: folosind AI pentru a face „munca de rutină” — curățarea datelor, sumarizarea literaturii, generarea schițelor — studenții pot câștiga timp pentru activități de nivel înalt: interpretare, proiectare de experimente, sinteză critică. În acest scenariu, AI devine un multiplicator de productivitate, nu un substitut al gândirii.
.avif)
Riscuri: când AI erodează competențele cognitive
Dar există capcane reale. Câteva mecanisme prin care AI poate eroda abilitățile cognitive sunt deja documentate sau plausibile în lumina cercetării:
- Dependența de răspunsuri gata făcute: dacă obiceiul este să ceri „răspunsul” dintr‑un model, creierul nu mai exersează procesele de înțelegere, inferență sau verificare.
- Substituirea strategiilor active: similar cu efectul GPS asupra memorării geografiei orașelor, folosirea frecventă a LLM‑urilor pentru a genera texte poate eroda reținerea informațiilor și abilitatea de sinteză.
- Uniformizarea expresiei: dacă mulți candidați pentru un job folosesc aceeași tehnologie pentru scrierea scrisorilor de intenție sau CV‑urilor, rezultatele tind să devină omogene, reducând avantajul creativității personale.
- Eroarea de încredere: LLM‑urile pot produce răspunsuri plauzibile dar incorecte („alucinații”), iar utilizatorii care nu verifică critic pot internaliza informații eronate.
Jeff Behrends, filozof, compară efectele LLM‑urilor cu influențele altor „instrumente de muncă cognitivă”: modul în care scrisul de mână versus tastatul afectează memorarea sau cum predictive text ne schimbă alegerile vocabularului. Istoria tehnologiilor arată că instrumentele nu sunt neutre; ele schimbă felul în care gândim.

Perspectiva practică din educație: ce pot face profesorii?
Profesorii și designerii curriculari trebuie să regândească sarcinile de învățare astfel încât AI să fie integrat ca resursă care solicită gândirea, nu ca scurtătură care o înlocuiește. Karen Thornber, director la Derek Bok Center, recomandă dezvoltarea unei „alfabetizări AI intenționate”: competențe care includ verificarea surselor, evaluarea calității informațiilor, formularea de promturi eficiente și reflecția asupra limitărilor instrumentelor.
Strategii concrete:
- Proiectați sarcini în care output‑ul generat de AI trebuie analizat critic: studenții să identifice presupunerile, erorile sau sursele potențiale.
- Folosiți AI pentru a genera multiple perspectiva, iar apoi cereți elevilor să susțină una și să argumenteze de ce cel puțin două perspective sunt problematice.
- Introduceți metacogniție: cereți studenților să descrie procesul lor mental, nu doar rezultatul final — cum au folosit AI, ce au încercat, ce au învățat.
- Compară abordări: rugați studenții să rezolve o problemă manual și apoi cu ajutorul AI, documentând diferențele și lecțiile învățate.
Această abordare transformă instrumentul într‑un partener de învățare, în loc să îl lase să ne fure exercițiul mental.
Limitările AI: ce nu pot face mașinile
Fawwaz Habbal, lector în fizică aplicată, subliniază că mașinile nu „trăiesc” experiențe umane — nu au sensibilitate etică, nu pot crea sens din situații morale complexe și au un deficit în reflecția profundă. Machine learning ajustează statistici și optimizează funcții de cost; oamenii în schimb se organizează în jurul semnificației, scopului și responsabilității sociale. Astfel, provocările etice, designul de sisteme care afectează ființe umane sau analiza consecințelor sociale rămân în primul rând teritorii umane.
.avif)
În plus, modelele AI tind să ofere răspunsuri similare când li se pune aceeași întrebare: multe platforme se antrenează pe date comune, iar acest lucru reduce varietatea de soluții și perspective oferite. Creativitatea veritabilă — cea care produce idei genuin noi, cu impact social sau științific — păstrează încă un avantaj uman.
De ce unii cercetători vorbesc despre "atrofie" cognitivă?
Termenul „atrofie cognitivă” folosit în discuții populare evocă imaginea unei „mușchi mental” care se subțiază când nu este folosit. Există dovezi că practicile cognitive ne modelează creierul: utilizarea repetată a unor tehnici poate întări anumite circuite neuronale și neglija altele. Dacă externalizăm constant sarcini — memorarea, analiza critică, strategiile de rezolvare a problemelor — spre instrumente digitale, putem pierde exercițiul care menține acele abilități la cote ridicate.
Totuși, comparația nu trebuie simplificată: instrumentele bune pot redistribui efortul cognitiv spre sarcini de nivel înalt. Este diferența dintre a folosi un calculator de buzunar pentru operații aritmetice (și astfel exersa mai puțin anumite calcule) și a folosi același calculator pentru a explora modele matematice complexe care ar fi altfel inaccesibile. Cheia este proiectarea intenționată a activităților.
Expert Insight
„Ca astrofizician care lucrează la simulări de misiuni spațiale, văd analogii clare: instrumentele de calcul permit simulări pe scară largă, dar decizia finală despre ce riscuri asumăm sau ce obiective prioritizăm rămâne umană. Inteligența artificială oferă informații cuantice, dar nu poate înlocui judecata contextuală sau responsabilitatea morală a echipei de zbor”, spune dr. Elena Marinescu, inginer de traiectorii la un proiect imaginar de explorare planetară. „Folosirea AI ca asistent de proiectare ne-a făcut mai eficienți, dar nu am permite niciodată unui algoritm să semneze o decizie critică fără revizia umană.”

Politici, etică și viitorul muncii cognitive
Pe măsură ce AI devine omniprezentă, vor fi necesare politici educaționale și profesionale care să încurajeze utilizarea responsabilă. Instituțiile ar trebui să promoveze alfabetizarea digitală și AI — nu doar în sens tehnic, ci și etic și metodologic. Aceasta include standarde pentru transparența instrumentelor, instruire în evaluarea riscurilor de „alucinație” a modelelor și mecanisme de auditare a conținutului generat automat.
De asemenea, piața muncii se transformă: anumite sarcini vor fi automatizate, iar altele vor necesita mai multă gândire critică, discernământ și creativitate — competențe dificil de externalizat. Așadar, formarea profesională trebuie regândită pentru a pune accent pe argumentare, evaluare etică și proiectare sistemică.
Concluzie
Inteligența artificială nu este în mod inerent profesor sau dăunător; este un instrument puternic ale cărui efecte asupra gândirii critice depind de modul în care îl folosim. Datele științifice arată că mintea umană combină procese statistice cu intuiții și experiență — trăsături pe care AI nu le reproduce complet. În educație, cheia este proiectarea deliberată a sarcinilor care obligă la reflecție, verificare și responsabilitate, astfel încât AI să devină un amplificator al capacităților noastre, nu o scuză pentru lene cognitivă.
Profesorii, instituțiile și factorii de decizie trebuie să cultive o alfabetizare AI care să includă competențe tehnice, metacognitive și etice. Numai astfel vom transforma avansul tehnologic într‑un catalizator al progresului intelectual și social, nu într‑un factor de uniformizare sau atrofie cognitivă.
Lasă un Comentariu