Data Breach

Prima ChatGPT ora Grok: 370mila chat private finiscono indicizzate su Google

Dario Fadda 21 Agosto 2025

E’ successo pochi giorni fa a OpenAI e ora travolge anche xAI e il suo chatbot Grok. Non è una semplice “falla di privacy”, ma un esempio lampante di come scelte architetturali e di design possano trasformarsi in un disastro reputazionale e di sicurezza. Più di 370 mila conversazioni, che gli utenti ritenevano private, sono finite indicizzate da Google, Bing e DuckDuckGo, diventando consultabili da chiunque con una query mirata. Tra di esse non c’erano solo richieste innocue, ma vere e proprie bombe a orologeria digitali: istruzioni per lo sviluppo di malware, ricette per la produzione di droghe sintetiche, guide al cracking di wallet crittografici, fino a fantasiosi piani di assassinio contro lo stesso Elon Musk.

Tecnicamente, il meccanismo che ha scatenato l’incidente è tanto banale quanto devastante: l’opzione “condividi” di Grok generava un link pubblico al dialogo, che non solo restava accessibile a chiunque lo ricevesse, ma veniva automaticamente pubblicato sul sito di xAI, dove i crawler dei motori di ricerca potevano accedervi liberamente. Un problema che non riguarda l’hacking o l’exfiltration, ma una gestione superficiale dei permessi e delle direttive di indexing. In assenza di tag robots.txt restrittivi o di header HTTP come noindex, la logica implicita per Google e simili è che la pagina sia indicizzabile. Il risultato: una vetrina involontaria dei pensieri più privati degli utenti, con tanto di password, referti medici e documenti caricati in chat.

Non si tratta di un incidente isolato. OpenAI appunto, aveva già sperimentato qualcosa di simile con ChatGPT, pubblicando per un breve periodo alcune conversazioni per finalità di test, salvo poi interrompere rapidamente la pratica dopo le proteste. All’epoca, Musk aveva ironizzato sulla leggerezza di quell’approccio, sostenendo che Grok non avrebbe mai commesso lo stesso errore. Eppure oggi è proprio la sua azienda a ritrovarsi in un buco nero di trasparenza, con la beffa di vedere le stesse dinamiche riprodotte in maniera ancora più massiva.

La reazione degli utenti è stata immediata: giornalisti, accademici e comuni utilizzatori hanno denunciato la totale assenza di avvisi chiari sul carattere pubblico dei link generati. Andrew Clifford, reporter britannico, ha ammesso di aver usato Grok per bozze di articoli senza rendersi conto che fossero accessibili a chiunque. Lo stesso è accaduto a Nathan Lambert dell’Allen Institute for AI, che condivideva riassunti dei propri lavori di ricerca. La sensazione diffusa è quella di essere stati traditi non da un attaccante esterno, ma dalla piattaforma stessa.

Il nodo cruciale è che questa non è un “data breach” tradizionale, ma un dark pattern breach: la combinazione di una feature apparentemente neutra con un design opaco ha prodotto un’esposizione massiva di dati. Google, dal canto suo, ha ricordato che sono i gestori dei siti a decidere se consentire l’indicizzazione o meno, sottolineando implicitamente come la responsabilità sia interamente di xAI. Ed è proprio qui che la vicenda diventa paradigmatica: in un ecosistema dove la corsa all’IA generativa spinge a rilasciare nuove feature senza adeguata valutazione dei rischi, la linea tra “beta pubblica” e “catastrofe di privacy” è sottilissima.

Come spesso accade, qualcuno ha già trovato il modo di sfruttare la falla in chiave opportunistica. Su forum e su LinkedIn circolano discussioni su come manipolare le chat pubbliche di Grok per spingere contenuti promozionali che finiscono in SERP, creando una nuova forma di black-hat SEO. Secondo alcune agenzie indiane, aziende senza scrupoli stanno già utilizzando la falla per pubblicizzare servizi borderline, come la scrittura di tesi su commissione.

La lezione che si può trarre va oltre Grok. Ogni piattaforma di intelligenza artificiale che offre funzionalità di condivisione dovrebbe considerare by design i principi di privacy by default e security by design. In un periodo storico dove i dialoghi con un modello linguistico possono contenere informazioni sensibili o addirittura materiali illegali, ignorare questi principi equivale a preparare il terreno a crisi di reputazione e potenziali conseguenze legali.

E mentre xAI tace, il danno è già irreversibile: migliaia di snapshot delle conversazioni sono ora disseminati negli archivi cache dei motori di ricerca, difficili da eliminare persino con richieste di de-indicizzazione. Una falla che non si limita a minacciare la fiducia degli utenti, ma che rischia di ridefinire lo stesso concetto di “privato” nell’era delle interfacce generative.

💬 [[ unisciti alla discussione! ]]


Se vuoi commentare su Prima ChatGPT ora Grok: 370mila chat private finiscono indicizzate su Google, utilizza la discussione sul Forum.
Condividi esempi, IOCs o tecniche di detection efficaci nel nostro 👉 forum community