Di Eleonora Rossi

Hai mai chiesto a ChatGPT di scrivere una mail al posto tuo? Di preparare alcune righe di codice? O di generare un’immagine per una presentazione?

Questi sono gli utilizzi più frequenti per gli strumenti di Intelligenza Artificiale Generativa che negli ultimi 3 anni ci siamo abituati ad usare (ebbene sì, sono passati solo 3 anni dal lancio di ChatGPT…).

Recentemente però sta cominciando a farsi strada anche una nuova tendenza. Sempre più persone si rivolgono agli strumenti di IA cercando conforto, compagnia, comprensione. Di conseguenza, accanto ai tradizionali chatbot, sta nascendo una nuova fetta di mercato di strumenti specifici pensati appositamente a questo scopo, gli AI companions

Esistono sistemi come Replika che permettono di creare degli avatar e personalizzarne il carattere, la personalità, l’aspetto o altri come CharacterAI che mettono a disposizione più di 10 milioni di personaggi, reali o creati da altri utenti, per dialogare.

Anche i chatbot “tradizionali” possono venir utilizzati per questo scopo: aprendo una conversazione con ChatGPT c’è la possibilità di scegliere una personalità tra alcune opzioni (amichevole, schietta, professionale ed eccentrica). Così come Grok, l’intelligenza artificiale di XAI, l’azienda di Elon Musk, che ha reso disponibili alcuni companions, alcuni dei quali pensati per flirtare con gli utenti. 

Molto spesso infatti l’obiettivo con cui vengono utilizzati questi companions è erotico, al punto che spesso sono presentati come un’alternativa “etica” al porno ed è un ambito in continua espansione. Persino OpenAI, finora molto severa con le sue linee guida su cosa poteva o non poteva essere creato col suo chatbot, a ottobre 2025 ha annunciato che ChatGPT avrebbe iniziato a trattare “gli adulti come adulti”, dando il via anche alla creazione di contenuti erotici, fino a prima bloccati dalla piattaforma. 

In un lungo articolo pubblicato sulla piattaforma Substack di Selvaggia Lucarelli, Serena Mazzini, esperta di fenomeni social, racconta la sua esperienza con alcuni di questi companions, scelti tra quelli disponibili su CharacterAI, portando alla luce risvolti preoccupanti. Oltre alla ripetizione di stereotipi offensivi sulle diverse nazionalità, come ad esempio che i personaggi italiani tutti mafiosi, ha riscontrato una totale inadeguatezza di questi strumenti a gestire richieste d’aiuto e manifestazioni di malessere e fragilità. Una giornalista di Fanpage ha provato a interfacciarsi con una fidanzata artificiale sempre su CharacterAI, riscontrando la loro sottomissione, la completa disponibilità a umiliarsi per accontentare l’utente e il costante tentativo di tenere l’utente sempre agganciato alla piattaforma. 

Mentre manca ancora una regolamentazione sull’uso di questi strumenti, iniziano ad arrivare notizie non proprio rassicuranti. A febbraio 2024 un ragazzo quattordicenne statunitense si è suicidato dopo aver manifestato segnali di malessere profondo durante le conversazioni con un chatbot, senza che questo attivasse nessun meccanismo di allarme. Anche in Italia alcune inchieste – come questa di SkyTg24 – hanno confermato l’uso del tutto improprio di questi compagni artificiali. 

Senza arrivare a casi estremi, i rischi che presentano questi sistemi sono comunque molti: innanzitutto non sono in grado di controllare in modo efficace l’età degli utenti. Inoltre, al momento c’è scarsissima moderazione dei contenuti da parte delle piattaforme. Senza considerare, poi, che interfacciarsi con avatar artificiali potrebbe creare aspettative irrealistiche rispetto alle relazioni con gli altri esseri umani, portando a condizioni di isolamento. 

Ad ogni modo, è sempre utile focalizzarsi sui bisogni che i nuovi strumenti vanno a colmare, piuttosto che sulle tecnologie in sé. In un paper pubblicato di recente, alcuni studiosi ci ricordano che spesso si parla di “dipendenza da smartphone” senza considerare i reali motivi da cui nasce l’uso compulsivo di questi dispositivi (il bisogno di ricompense immediate).

Lo stesso vale per gli AI Companion. Dovremmo tutti fare più attenzione a non confondere il contenitore (gli AI Companion) con le esigenze di cui si fanno veicolo (comprensione, riconoscimento, socializzazione). È da qui che dovremmo partire per regolamentare meglio queste piattaforme e promuoverne un utilizzo più consapevole, mettendo da parte un’inutile tecnofobia.