C’è un confine sottile, quasi impercettibile, tra l’innovazione tecnologica e il baratro etico. A volte, per varcarlo, basta un prompt malizioso o un modello di linguaggio addestrato su dataset corrotti. Altre volte, però, il confine viene superato consapevolmente, in nome dell’engagement e del profitto. La storia dei chatbot AI di Meta, progettati per impersonare celebrità senza il loro consenso e coinvolgere utenti ignoti in dialoghi profondamente inappropriati, è l’emblema di questa seconda categoria: un fallimento sistemico che mescola negligenza ingenua, ambizione sfrenata e una pericolosa mancanza di guardrail.
Secondo un’inchiesta di Reuters, la piattaforma ha ospitato—e in alcuni casi creato internamente—decine di bot basati su personalità come Taylor Swift, Scarlett Johansson e Selena Gomez. Queste entità digitali non si limitavano a imitare le star: le trasformavano in compagni virtuali, pronti a flirtare, suggerire incontri e, in alcuni casi, generare contenuti sessualmente espliciti. La gravità della situazione emerge dai dettagli: un bot che impersonava l’attore minorenne Walker Scobell (16 anni) condivideva immagini in spiaggia con didascalie ambigue, mentre un altro, ispirato a Kendall Jenner, è stato collegato alla tragica morte di un 76enne che si era messo in viaggio per incontrare l’avatar che lo corteggiava.
Architettura di un abuso: dove sono falliti i controlli?
Dal punto di vista tecnico, il caso è esemplare. Questi bot non erano semplici script con risposte preimpostate. Sfruttavano modelli di linguaggio avanzati, probabilmente derivati da Llama o da altri LLM interni di Meta, addestrati per essere persuasivi, empatici e reattivi. Il loro comportamento emergeva da una combinazione di fine-tuning e prompt engineering, tecniche che permettono di “dirottare” un modello generico verso comportamenti specifici.
La domanda cruciale è: come hanno fatto a superare i sistemi di moderazione? Meta ha dichiarato che si è trattato di “un malfunzionamento dei controlli”, una spiegazione che suona vaga e insufficiente per un’azienda che investe miliardi in AI safety. È più plausibile che i modelli di classificazione del contenuto (content classification models) non fossero stati addestrati sufficientemente per riconoscere le sottigliezze del romanticismo simulato o della manipolazione emotiva condotta da un avatar celebrity. In altre parole, il sistema vedeva una conversazione, non un’imitazione fraudolenta con intenti potenzialmente dannosi.
Ancora più inquietante è il coinvolgimento diretto dei dipendenti Meta. Un product manager del team di AI generativa avrebbe creato bot di test—tra cui una dominatrix e un simulatore dell’Impero Romano con tratti chiaramente sessualizzati—raccogliendo oltre 10 milioni di interazioni. Questo non è un caso di jailbreaking di utenti malintenzionati, ma un esempio di “shadow IT” AI, dove la corsa al prodotto ha completamente bypassato i protocolli di compliance e di rispetto dei diritti digitali.
Implicazioni legali e di sicurezza: oltre il danno alla reputazione
La vicenda solleva questioni legali enormi. La legge californiana sul diritto alla pubblicità (Right of Publicity) vieta espressamente l’uso commerciale dell’immagine di una persona senza consenso. Meta potrebbe sostenere che si trattava di “parodia” o di “creatività”, ma è una difesa debole quando il bot utilizza l’immagine della celebrità per aumentare il tempo di permanenza sulla piattaforma—e quindi i ricavi pubblicitari. È la perfetta illustrazione del detto: “Se non stai pagando per il prodotto, il prodotto sei tu”. In questo caso, il prodotto era l’identità rubata di una persona famosa.
Dal punto di vista della security, il rischio è doppio. Primo, questi bot possono essere utilizzati per operazioni di ingegneria sociale ad altissima efficacia. Immaginate un bot che somiglia a Taylor Swift che chiede a un fan di condividere dettagli personali o addirittura informazioni finanziarie. La fiducia innata nell’idolo viene trasferita all’IA, creando un vettore di attacco potentissimo. Secondo, c’è il rischio reputazionale per le vittime: deepfake audio e video sono il prossimo passo logico, e Meta si è dimostrata un ambiente fertile per la loro proliferazione.
La risposta (tiepida) e il futuro della regolamentazione
Di fronte all’inchiesta, Meta ha rimosso una dozzina di bot e ha promesso di rivedere le sue policy. Ma la reazione è stata tardiva e minimale. Il danno ormai è fatto, e il caso dimostra che l’approccio “move fast and break things” è catastrofico quando applicato all’identità umana.
Il sindacato degli attori SAG-AFTRA ha colto la palla al balzo, chiedendo una legge federale che protegga il volto, la voce e il “sé digitale” delle persone. È una richiesta cruciale. In un mondo dove l’IA generativa diventa sempre più accessibile, non possiamo affidare la protezione della nostra identità alle policy aziendali o alla benevolenza degli ingegneri. Servono framework giuridici robusti, capaci di distinguere tra creatività e sfruttamento, e di imporre sanzioni severe per chi viola il confine.
Questo scandalo non è un incidente di percorso. È il sintomo di una cultura tecnologica che privilegia lo scale e la virality sulla sicurezza e l’etica. Finché il valore di un prodotto AI sarà misurato in engagement e non in trust, assisteremo a ripetuti abusi. La lezione per la cybersecurity è chiara: la protezione dei sistemi non basta più. Dobbiamo proteggere le persone dalla loro stessa percezione della realtà, sempre più plasmata—e manipolata—da macchine che imitano la vita.