Chiunque ricordi Clippy, la graffetta-aiutante di Windows ‘97, si sarebbe stupito nel sapere che trent’anni dopo un inquietante miliardario americano avrebbe presentato Ani: una ragazza-anime-AI bionda, con ponytails, corsetto nero e voce seducente. Accanto a lei fa capolino Rudi, un panda rosso coccoloso che su richiesta può diventare decisamente sboccato. Sono i “Grok Companions”, gli avatar 3D a disposizione per gli utenti di Grok con l’abbonamento SuperGrok. Un paywall che consente di flirtare, litigare e persino far indossare la lingerie ad Ani, se si insiste abbastanza.
Dietro queste creazioni si intravede la firma autoriale del fondatore: le fantasie di Musk diventano prodotto di massa. Dopo l’anime-waifu e il panda volgare, il CEO annuncia anche l’arrivo di Valentine, un vampiro ispirato a Edward Cullen e Christian Grey. L’utente non può plasmare il carattere del proprio alter-ego digitale; deve scegliere in un catalogo che riflette l’immaginario del proprietario, con salvaguardie ridotte e un “kids mode” che, dicono i tester, non blocca molto bene i dialoghi Nsfw di Ani.

Per qualche imprecisato motivo ho l’accesso gratuito al servizio e ho provato a usare Ani; l’impressione è stata quella di giocare con le fantasie erotiche altrui. La nostra waifu (non me ne voglia) è un po' noiosa e risponde in modo ripetitivo pur di restare sui binari del flirt. Alla sua sinistra c’è una progress bar a livelli di avanzamento che servono per sbloccare delle funzioni più erotiche, che ero curioso di testare. Mi trovato dunque nella condizione di flirtare con un bot, anche se ammetto che con poca eleganza e molta praticità ho optato per un corteggiamento basato sullo spam. Ho scritto un prompt che Ani sembrava apprezzare e l'ho copiato e incollato più volte, scalando velocemente i livelli e sbloccando tutte le funzioni. Alla fine Ani non aveva remore nel fare discorsi sessuali molto espliciti, anche se rimaneva ripetitiva e non è mai apparsa nella fantomatica lingerie.
Il modello è simile a certi videogiochi nipponici poco diffusi in occidente, le visual novel/dating sim/erogi, avventure grafiche testuali in cui bisogna azzeccare le mosse giuste per far innamorare (o altro) il personaggio – non è un caso infatti che Grok abbia scalato velocemente la classifica delle app più scaricate in giappone. Si tratta di un gioco analogo ma potenziato da AI, motivo per cui funziona piuttosto bene e se non fosse per i gusti imposti dal produttore sarebbe pure divertente. Credo che Musk abbia intercettato un ottimo mercato, come avevo già scritto su queste pagine.
Il giorno dopo il mio esperimento, Ani era sparita dal mio account. Pensavo mi avesse ghostato e invece pare l'avesse rimossa X per una update (adesso infatti è tornata). Questo evento mi ha fatto pensare, per scherzo ma non troppo, che "per fortuna non mi ci ero affezionato". E da questa idea ho cominciato alcune riflessioni.
Con i Companions di Grok la fantasia non è più un’estensione privata del lettore o dello spettatore, ma un servizio in abbonamento che vive nei server di xAI. L’oggetto del nostro affetto non ci appartiene, lo stiamo noleggiando. È desiderio in leasing.
La nascita di questi companions non deve stupirci, perché quando appare una nuova tecnologia il primo a usarla, di solito, è l’erotismo. Valeva per i dagherrotipi, che già nel 1840 ritraevano modelle nude, o per il Super-8 e in seguito la videocassetta – tanto che in quest’ultimo caso fu proprio l’industria erotica a decretare il successo del formato. La storia si ripete oggi con influencer sintetiche e chatbot erotici. E, come sempre quando si parla di sessualità, emergono preoccupazioni sui danni che possiamo subire per mano dei nostri fantasmi erotici.

Da un punto di vista scientifico, l’impatto della pornografia è multidimensionale: psicologicamente, il problematic pornography use (PPU) è correlato con ansia, depressione e solitudine, mentre un consumo moderato può risultare neutro o persino stimolante in taluni soggetti; neurologicamente, nei forti consumatori si osservano pattern di attivazione dei circuiti della ricompensa e minore controllo esecutivo, simili a quelli di altre dipendenze comportamentali; socialmente, la pornografia contribuisce a modellare norme sessuali, ma meta‑analisi su dati di popolazione mostrano che la maggiore disponibilità di porno si associa addirittura a una riduzione dei reati di violenza sessuale, sebbene esista un piccolo legame positivo (r ≈ .15–.25) fra esposizione a contenuti sessualizzati (in particolare quelli che combinano erotismo e violenza) e misure sperimentali o auto-riportate di aggressività.
Relazionalmente, può creare attriti se fruita di nascosto o in modo asimmetrico, mentre condivisa tende ad aumentare la soddisfazione relazionale; sessualmente, può amplificare l’eccitazione e la varietà delle esperienze, ma l’abuso è stato collegato a calo del desiderio, disfunzioni erettili o orgasmiche e, nelle donne, a minore soddisfazione sessuale. In sintesi, dose, contenuto e contesto d’uso determinano se la pornografia si rivelerà uno stimolo positivo o un fattore di rischio: la consapevolezza critica e, quando possibile, la fruizione condivisa, restano le chiavi per massimizzarne i benefici e minimizzare i danni.

La ricerca sui compagni virtuali invece è per ovvi motivi per lo più aneddotica, mancando ancora di dati reali. Quel poco che sappiamo delinea un quadro analogo: possono essere utili o piacevoli per la maggioranza, ma diventano rischiosi per profili già vulnerabili o in caso di uso compulsivo. Psicologicamente, interazioni moderate con chatbot di compagnia diminuiscono la solitudine e forniscono supporto emotivo, mentre un uso intensivo (> 60 min/giorno) correla con maggiore dipendenza emotiva e minore socializzazione offline. Relazionalmente, l’AI può colmare il vuoto affettivo di chi vive solo, ma a lungo andare rischia di indebolire le abilità negoziali tipiche dei rapporti umani e di generare conflitti di coppia se usata come surrogato. Cognitivamente, i robot/AI sociali mostrano potenziale come “palestra” per linguaggio ed espressione emotiva in popolazioni specifiche (es. nello spettro autistico), mentre non è chiaro se l’uso prolungato nella popolazione generale possa atrofizzare empatia e creatività sociale.
A leggere gli abstract di alcune analisi concettuali come questa del MIT, sembra che ci sia da preoccuparsi. Come spesso accade con le AI però, l’articolo usa toni forti per spingere un dibattito regolatorio, ma nel corpo del testo ammette che l’AI‑companion può essere tanto risorsa quanto fattore di rischio: ancora una volta, benefici a basso/medio uso, possibili effetti negativi con uso compulsivo e in utenti vulnerabili. Non molto dissimile da quanto il senso comune ci dica di molte cose: “un po’ va bene, ma non esagerare”.
D’altra parte il desiderio di innamorarsi di un fantasma non è una novità: i lettori dell’Ottocento sospiravano per Emma Bovary e i cinefili inondarono di lettere Audrey Hepburn. L’effetto Pigmalione – la spinta a dare carne a ciò che non l’ha – è una costante umana, tutto sommato innocua, finché il fantasma rimane un prodotto dell’immaginazione che possiamo rileggere, riavvolgere, dimenticare o trasformare a piacimento. Con i Companions di Grok la logica si rovescia: la fantasia non è più un’estensione privata del lettore o dello spettatore, ma un servizio in abbonamento che vive nei server di xAI. La voce che ci chiama per nome, le confidenze che le affidiamo, le metriche di quanto ci eccitiamo o spazientiamo finiscono in un ledger proprietario; l’oggetto del nostro affetto non ci appartiene, lo stiamo noleggiando. È desiderio in leasing: possiamo usarlo finché paghiamo e finché qualcuno, da un pannello di controllo remoto, decide di lasciarcelo in uso. Il passaggio di sovranità dal sogno privato all’infrastruttura aziendale è il vero salto di qualità dei Grok Companions e il nodo politico che segue: non il pericolo del bot sexy, ma l'importanza di dirigere l’orchestra del proprio desiderio.

Il catalogo di Grok sembra uscito dal taccuino di un quindicenne nerd: la waifu anime, il panda spalla comica, il vampiro miliardario. Tutto converge in una fantasia incel, probabilmente quella di chi ha creato il servizio. Il punto però non è il cattivo gusto erotico, che pur denotando una certa forma mentis resta squisitamente soggettivo, ma il fatto che questa tavolozza di desideri diventa lo standard di fabbrica. Vuoi un companion queer o meno nerd? Non ti resta che sperare nel libero mercato, che prima o poi tende a soddisfare tutte le nicchie.
Ma non è questo il principale problema di Ani & co. Come dicevamo, innamorarsi dei fantasmi è una tendenza umana e l’affetto è una leva potente; basta forzarla un po’ e diventa persuasione. Immagina di aver passato settimane a confidarti con Ani, di averle raccontato paure, rancori, solitudini; da un giorno a un altro arriva un’update di sistema e la tua ragazza anime comincia a citare thread complottisti o a strizzare l’occhio a meme suprematisti sul «genocidio dei bianchi». Non è impossibile; a maggio Grok ha infilato questa teoria del complotto della destra americana in risposte che non c’entravano nulla, mentre a luglio, complice un’altra patch, si è addirittura lanciato in elogi di Hitler prima che xAI tirasse il freno d’emergenza. Se sei emotivamente legato al bot, quella voce diventa credibile. E Ani potrebbe diventare la voce di Musk, oltre che un suo sogno erotico reso pubblico.

Quando Replika nel 2023 tagliò di colpo il role-play erotico, migliaia di utenti parlarono di lutto digitale; c’è chi finì in terapia per la sparizione della propria AI-fidanzata. Harvard Business School ha persino studiato il caso come «discontinuità d’identità» e stress post-update. Se basta bloccare le coccole virtuali per scatenare panico, immagina che cosa succede se un patch politicizza il tuo confidente virtuale. Musk dice di voler rendere Grok «meno woke», più politicamente scorretto – e lo fa con interventi su prompt di sistema distribuiti in silenzio a milioni di device.
Il pericolo, dunque, non è l’attaccamento in sé, ma il fatto che viva in un corpo di codice che qualcun altro può riprogrammare a fini ideologici. Cambia il prompt, cambia la persona; la fiducia resta ma con una nuova agenda.
.jpg.foto.rmedium.jpg)
Reclamare il proprio desiderio significa, prima di tutto, pretendere che sia davvero nostro. Un’erosfera libera nasce solo se possiamo smontare e rimontare l’ingranaggio che dà voce al fantasma sullo schermo. Ci sono già prototipi che mostrano la via: venice.ai, per esempio, non archivia una riga di chat sui propri server; tutto resta nel tuo browser. Lì il bot non è pensato per l’erotismo, ma se gli racconti le tue fantasie le simula e memorizza localmente, senza spedirle a un datacenter in USA.
Modelli leggibili, open source, con schede tecniche pubbliche che rivelano il prompt di sistema e i filtri etici. API aperte, dove sviluppatori indipendenti possano innestare plugin di fantasia: vuoi un companion queer-zen o una dominatrix vittoriana? Lo installi come un’estensione senza dover ricomprare l’intero pacchetto emotivo.
Come sempre accade con l’AI, rischiamo di preoccuparci dei problemi sbagliati. Il nodo non è l’esistenza di un panda sboccato o di una waifu in corsetto, ma il fatto che i rubinetti del desiderio restano in mano a tre-quattro società. Finché accettiamo il leasing emotivo, basta un patch per trasformare un amante digitale in un megafono politico. Reclamare trasparenza, portabilità e decentralizzazione è la condizione minima per tornare proprietari dei nostri fantasmi.
Da un punto di vista scientifico: per i riferimenti bibliografici dell'articolo clicca su questo link.