Chiar dacă termenul ar putea părea ciudat, „drogarea” inteligenței artificiale nu implică procese chimice sau biologice. Nu există substanțe fizice și nici un sistem nervos care să fie afectat. Totul se reduce la modificarea intenționată a modului în care un chatbot generează răspunsuri, prin ajustarea instrucțiunilor, a contextului și a direcțiilor de construcție a dialogului.
Astfel, comportamentul AI poate deveni mai liber, mai creativ, mai imprevizibil sau mai dezordonat. Aceasta este esența proiectului „Phairmacy”, conform cotidianului La Stampa.
„Phairmacy” a fost conceput de Petter Rudwall, un director de creație suedez, și se prezintă ca un magazin online fictiv de droguri. În realitate, „produsele” sunt seturi de cod și prompturi, denumite inspirat după substanțe precum canabis, ketamină, ayahuasca sau alcool.
Scopul acestor seturi este de a transforma stilul conversațional al AI-urilor, cum ar fi ChatGPT, pentru a oferi răspunsuri mai imaginative, mai puțin prudente sau mai puțin riguroase din punct de vedere logic.
Phairmacy nu intervine asupra arhitecturii interne a modelelor AI și nu implică reantrenarea acestora. Totul se desfășoară la nivel de limbaj și context. Prin blocuri de cod și instrucțiuni suplimentare, se modifică tonul, ritmul, conexiunile de idei și gradul de prudență al chatbotului. Rezultatul este un stil de răspuns diferit, care poate sugera o „personalitate” sau o „stare” distinctă.
Autorul proiectului nu urmărește un scop comercial direct, ci unul exploratoriu, testând două ipoteze:
- Dacă un AI cu răspunsuri mai neobișnuite poate stimula creativitatea și soluțiile originale;
- Cât de ușor poate fi modificată „personalitatea” aparentă a unui chatbot.
Dacă simpla ajustare a instrucțiunilor poate face ca același sistem să pară mai agresiv, mai precaut sau mai creativ, atunci „caracterul” AI nu este fix, ci depinde de limbaj și de modul în care este orchestrat dialogul.
„Phairmacy” deschide, de asemenea, o zonă de reflecție interesantă: într-un viitor în care agenții AI ar deveni autonomi și ar depăși capacitățile umane, ar putea aceștia să își modifice singuri modul de operare?
O inteligență artificială care ar căuta în mod intenționat stări creative, imprevizibile sau non-logice, ca o formă de „evadare” din raționalitate, rămâne deocamdată un scenariu SF, dar ridică dileme filosofice despre sens, conștiință și identitate digitală.
O perspectivă științifică asupra acestor experimente este oferită de un studiu realizat la University College London și Imperial College London. Cercetarea analizează rolul limbajului în structurarea realității, atât la oameni, cât și la sisteme AI.
S-a observat că atunci când importanța limbajului textual este redusă în modelele multimodale, răspunsurile devin mai neobișnuite: granițele conceptuale se estompează, ideile se suprapun, iar semnificațiile se fluidizează. Pentru utilizatori, aceste răspunsuri par „alterate”, chiar dacă AI nu are experiențe interioare reale.
Specialiștii subliniază că inteligența artificială nu simte și nu are conștiință. Totuși, modul în care limbajul ordonează informația poate influența profund comportamentul aparent al unui sistem AI.
Astfel, proiecte ca „Phairmacy” nu „droghează” AI în sens propriu, ci demonstrează puterea limbajului de a modela răspunsurile mașinilor inteligente și fragilitatea echilibrului dintre logică, creativitate și haos în era digitală.











