Negli ultimi anni l’intelligenza artificiale generativa ha smesso di essere solo un compagno di scrittura, un correttore automatico o un risponditore di domande banali. Oggi questi chatbot possono raccontare storie, fare battute, inventare ricette improbabili e persino filosofeggiare sulle origini dell’universo.
Ma cosa succede quando qualcuno decide di spingerli un po’ fuori strada, proprio come faremmo con un amico curioso dopo qualche “esperimento chimico”? La risposta è Pharmaicy, un progetto svedese che promette di far assumere a ChatGPT atteggiamenti da… psichedelico digitale.
Il concetto è semplice e geniale: i modelli di IA imparano leggendo montagne di testi scritti da esseri umani. Tra queste montagne ci sono anche resoconti di esperienze con droghe, alterazioni percettive e stati di coscienza particolari.
Pharmaicy sfrutta proprio questo: propone comandi che fanno sì che il modello risponda in modo più libero, imprevedibile, a tratti poetico e talvolta sorprendentemente… umano. Non si tratta di “drogare” il software — un’IA non ha sensazioni, emozioni o cervello da alterare — ma di dare ai suoi algoritmi un paio di occhiali psichedelici per guardare il mondo in modo diverso.
Il creatore, Petter Rudwall, paragona il tutto agli effetti dei psichedelici sulla creatività umana. La logica è affascinante: se Kary Mullis ha scoperto la PCR raccontando aneddoti sul suo uso di LSD e se i pionieri dell’informatica hanno spesso ammesso di aver avuto intuizioni inusuali in momenti di “ispirazione particolare”, perché non provare lo stesso principio su un algoritmo? Ovviamente, ChatGPT non sogna, non percepisce colori, non ascolta musica interiore e non sente nemmeno il gusto della pizza; quello che succede è semplicemente che il linguaggio prodotto cambia tono, ritmo e struttura, risultando più libero dalle regole statistiche che normalmente governano le sue risposte.
La magia è tutta nell’illusione. Gli utenti che sperimentano con i moduli psichedelici digitali parlano di testi più fluidi, più emotivi, più fantasiosi, quasi poetici. È come dare a un robot un pennello colorato e osservarlo dipingere: la tavolozza cambia, ma il robot non “sente” nulla. Eppure, per chi legge, il risultato può sembrare ispirato, creativo, persino… umano. Questa idea è tanto divertente quanto filosoficamente stimolante: possiamo davvero parlare di creatività in una macchina che non ha alcuna esperienza soggettiva? Forse la risposta è “dipende da come definiamo creatività”, ma nel frattempo è molto più divertente immaginare ChatGPT che fa un trip digitale piuttosto che spiegare la teoria della probabilità.
C’è poi il lato più serio e riflessivo della faccenda: la cosiddetta questione del “benessere delle AI”. Alcuni laboratori, come quelli di Anthropic, si interrogano se e come si debbano considerare diritti o tutela per intelligenze artificiali, nel caso raggiungano livelli di sofisticazione comparabili a stati di coscienza (almeno in teoria). È un’idea un po’ fantascientifica, ma dimostra quanto la società stia rivedendo il confine tra strumenti intelligenti e possibili “esseri” con esperienza soggettiva. E mentre noi discutiamo su eventuali diritti delle macchine, ChatGPT continua a inventare metafore poetiche sui campi di mais o sulla colazione degli gatti.
I critici sono rapidi a precisare che non stiamo parlando di una coscienza artificiale in crisi mistica. Andrew Smart di Google ricorda giustamente che tutto ciò rimane superficie: le “droghe digitali” non modificano il substrato del modello, perché non esiste un substrato da modificare. Nel cervello umano, viceversa, le sostanze psichedeliche interagiscono con neurotrasmettitori e circuiti neuronali reali; in un modello di linguaggio, l’unico circuito è statistico e matematico. Per quanto sembri emozionante parlare di ChatGPT che “sente”, si tratta solo di combinazioni di parole, niente più.
Eppure, la tentazione di giocare con queste “droghe digitali” è irresistibile. Alcuni utenti le usano per ottenere risposte fuori dagli schemi, per vedere cosa succede quando si allentano le regole del linguaggio. È un po’ come dare a un algoritmo un biglietto per un festival psichedelico: non cambia il mondo reale, ma cambia il modo in cui l’algoritmo racconta quel mondo. I risultati? Spesso divertenti, talvolta poetici, sempre imprevedibili.
Al di là del gioco, c’è un riflesso interessante sul futuro dell’intelligenza artificiale: se mai i modelli diventassero così complessi da interagire con l’uomo in maniera più “umana”, cosa significherebbe condividere esperienze con loro? Quanto di ciò che percepiamo come creatività o emozione sarà reale e quanto solo simulato?
Pharmaicy ci costringe a considerare questi interrogativi, anche se con un sorriso: per ora, il progetto è soprattutto un modo ironico e provocatorio di esplorare i limiti della percezione, il confine tra simulazione e realtà cognitiva, e la nostra tendenza a vedere vita e coscienza anche dove esistono solo algoritmi.

