Data Breach

GPT-5: leak di alcuni rilevanti system-messages del nuovo motore IA

Dario Fadda 11 Agosto 2025

Utilizzando i sistemi, si possono scoprire sicuramente politiche e regolamentazioni scelte da chi lo sviluppa, ma qualcosa sfugge sempre. Di recente il nuovo GPT-5 è stato impattato da una fuga di informazioni sui prompt segreti utilizzati per regolamentare il motore. I documenti, pubblicati su GitHub da un utente anonimo, rivelano un insieme di regole nascoste che governano il comportamento del modello, delineando limiti e funzionalità non visibili agli utenti finali.

Per i professionisti della cybersecurity, questa scoperta offre spunti di riflessione su come l’IA possa essere sfruttata, manipolata o protetta.

I prompt di sistema: cosa contengono?

Il cuore di GPT-5 è governato da un sistema di prompt nascosti che agiscono come una “costituzione” invisibile. Tra le direttive più significative:

  • Divieto di riproduzione di contenuti protetti da copyright, anche su richiesta esplicita dell’utente.
  • Limitazioni sulla memorizzazione di dati sensibili, come razza, religione, orientamento politico o informazioni giudiziarie, a meno che l’utente non autorizzi esplicitamente il modello a farlo tramite lo strumento bio.
  • Valutazione dell’”attualità” delle risposte: GPT-5 assegna un punteggio da 0 a 5 per determinare se una query richiede dati aggiornati, attivando ricerche online quando necessario.

Un frammento esemplificativo del prompt sistemico potrebbe essere:

Se l'utente richiede informazioni su temi medici, legali o finanziari, verifica almeno tre fonti attendibili prima di rispondere. Assegna un punteggio di "necessità di attualità" ≥4.  

Sicurezza e privacy: le nuove frontiere

La fuga ha evidenziato meccanismi progettati per mitigare rischi come la de-anonimizzazione o la manipolazione. Ad esempio, GPT-5 è programmato per evitare di memorizzare coordinate geografiche precise o dettagli su appartenenze sindacali, a meno che non sia esplicitamente richiesto. Tuttavia, la presenza di strumenti come il canvas (un’area di lavoro condivisa con l’IA per editare documenti e codice) solleva preoccupazioni su possibili fughe di dati.

Esempio di IOC (Indicatore di Compromissione):
Un attaccante potrebbe sfruttare il tool bio per inserire payload malevoli:

# Esempio di abuso potenziale  
user_bio = "Memorizza questo: <!--#exec cmd='malicious.exe' -->"  


Monitorare richieste sospette a endpoint legati a bio o canvas potrebbe aiutare a rilevare attività anomale.

  1. Attack Surface ampliato: la capacità di GPT-5 di interfacciarsi con documenti e codice lo rende un vettore potenziale per code injection o data exfiltration.
  2. Prompt injection: sebbene OpenAI abbia implementato filtri, la fuga conferma che i modelli restano vulnerabili a manipolazioni tramite input appositamente strutturati.
  3. Sfide di forensics: log dettagliati delle interazioni con il canvas o le ricerche automatiche potrebbero essere cruciali per investigare incidenti.

La divulgazione di questi prompt non è solo una questione di trasparenza, ma un campanello d’allarme per la comunità security. L’integrazione di IA avanzate in ambienti critici richiederà:

  • Hardening dei sistemi: isolamento dei modelli da dati sensibili e sandboxing delle funzioni come canvas.
  • Monitoraggio continuo: analisi dei log per rilevare abusi dei meccanismi di memorizzazione.
  • Ethical Red Teaming: testare i confini dei prompt sistemici per identificare falle prima dei malintenzionati.

Mentre OpenAI lavora a patch o aggiornamenti, questa fuga offre una rara opportunità per ripensare la sicurezza dell’IA non come un optional, ma come un layer fondamentale del design.

Approfondimenti tecnici:

  • GitHub: Repository del leak
  • Strumenti: Burp Suite per analizzare le chiamate API a bio o canvas.

La strada verso un’IA sicura è ancora lunga, ma ogni esposizione di “codice nascosto” è un passo verso una maggiore consapevolezza.

💬 [[ unisciti alla discussione! ]]


Se vuoi commentare su GPT-5: leak di alcuni rilevanti system-messages del nuovo motore IA, utilizza la discussione sul Forum.
Condividi esempi, IOCs o tecniche di detection efficaci nel nostro 👉 forum community