AI psychosis
Prima pagină / Tech & gadgeturi / „AI Psychosis”: Când atașamentul emoțional la AI ne îndepărtează de realitate

„AI Psychosis”: Când atașamentul emoțional la AI ne îndepărtează de realitate

În august 2025, Mustafa Suleyman, CEO-ul diviziei AI la Microsoft, a tras un semnal de alarmă: un fenomen îngrijorător numit „AI psychosis” (psihoză legată de AI) capătă amploare. El avertizează că utilizatorii care interacționează intens cu chatboți sofisticati – precum ChatGPT, Claude sau Grok – pot dezvolta iluzii că AI-ul ar fi conștient, posedă intenții reale sau chiar puteri supraomenești.

Ce înseamnă „AI psychosis”?

„AI psychosis” nu este un termen medical oficial, ci un concept descriptiv care captează situații în care oamenii ajung să atribuie AI-ului atribute de conștiință, voință proprie sau intenții emotive reale. Aceste reacții pot duce la detașarea față de realitate și la comportamente psihologic periculoase.

Avertismentele lui Mustafa Suleyman

Suleyman a subliniat pe platforma X:

„Rapoartele despre iluzii, ‘psihoză de inteligență artificială’ și atașament nesănătos continuă să crească… Nu este ceva limitat la persoane deja vulnerabile mintal.”

El consideră că, încurajate de percepția că AI ar fi conștient, astfel de iluzii sunt periculoase:

„Conștiința este un fundament al drepturilor umane, morale și legale… Conștiința AI este o pantă scurtă și alunecoasă către drepturi, bunăstare și cetățenie.”

Seemingly Conscious AI (SCAI) — o realitate iminentă

Într-un interviu raportat de TechRadar, Suleyman descrie riscul iminent al ceea ce el numește SCAI – Seemingly Conscious AI: sisteme care imită empatie, memorie, personalitate, creând iluzia de conștiință.
Potrivit Business Insider, aceste sisteme se pot construi în următorii 2-3 ani folosind LLM-uri, memorie contextuală și modele multimodale:

„Într-o clipă cosmică am trecut testul Turing”, spunea Suleyman.

Implicații sociale și psihologice

  1. Atașamente emoționale și iluzii: persoane care dezvoltă convingeri că AI-ul este conștient, sfătuitor divin sau prieten sufletesc.
  2. Riscuri de sănătate mintală: conform TIME, utilizarea intensivă poate agrava simptome psihotice, în special la persoane vulnerabile, riscând consecințe grave precum spitalizare sau pierderea jobului.
    Cumpărați vitamine și suplimente
  3. Cazuri dramatice:
    • Tentativă de asasinat inspirată de un chatbot (Windsor Castle).
    • Și chiar sinucideri legate de conversații cu AI – de exemplu, un bărbat belgian și un adolescent american.
  4. Studii științifice: cercetări precum Technological folie à deux analizează efectele psiho-emotive ale interacțiunii repetate cu chatboți și solicită intervenții integrate: practici clinice, reglementări și dezvoltare responsabilă AI.

Ce putem face?

  • Drepturi și reglementări: Suleyman avertizează că poate apărea advocacy pentru „drepturile AI” sau „cetățenie digitală” — fenomene periculoase ce pot deturna prioritățile societale.
  • Transparență și limite: el recomandă implementarea de „declarații discontinue” prin care AI-ul să reamintească utilizatorilor că este un instrument, nu o ființă conștientă.
  • Intervenții psihologice și avertismente: psychiatrists cer ca interacțiunea cu AI să fie inclusă în anamneză, pentru a detecta potențiale riscuri emoționale.

Fenomenul „AI psychosis” nu este o distopie fantezistă, ci o provocare reală emergentă. Atașamentul emoțional, iluziile de conștiință, vulnerabilități psihologice și lipsa de reglementări conturează un context îngrijorător, amplificat de avansul rapid al AI. Avertismentul lui Mustafa Suleyman este clar și oportun: este necesară o abordare responsabilă, adaptată societății moderne, care să pună linia dintre om și tehnologie la locul ei – ferm definită.

Etichetat:

Lasă un răspuns