E’ in arrivo una funzione di Apple per la sicurezza dei bambini che rileverà la nudità nei messaggi utilizzando l’intelligenza artificiale (AI).
Con la giovane età sempre più comune per un bambino nel Regno Unito nella quale avere un primo telefono cellulare, spostata ora a soli sette anni, molti genitori saranno probabilmente coinvolti nel contenuto a cui i loro bambini devono avere accesso. Una nuova funzione di Apple aiuterà in tal senso, ma il Dailymail ci racconta come.
Apple scansiona iPhone alla ricerca di nudità nei messaggi
Il gigante della tecnologia ha rilasciato il suo miglioramento di sicurezza delle comunicazioni all’interno del Regno Unito, 4 mesi dopo averlo lanciato negli Stati Uniti. Nel dispositivo – che papà e mamma possono scegliere se abilitare o meno – la funzione sperimenterà istantanee inviate e acquisite dai bambini nei Messaggi alla ricerca di nudità e le sfocerà regolarmente, per non farle apparire agli occhi del minore.
Il dispositivo di sicurezza delle comunicazioni, che è spento per impostazione predefinita, può essere attivato tramite intervento di un genitore all’interno delle impostazioni di Screen Time. Se Messaggi rileva che un bambino ha acquisito o sta tentando di inviare un’immagine contenente nudità, la offuscherà, prima di mostrare un avviso che l’immagine può essere sensibile fornendo metodi per ottenere assistenza.
“I messaggi offrono al bambino numerosi metodi per ottenere assistenza, tra cui lasciare la conversazione, bloccare il contatto, inviare un messaggio prestabilito e ottenere l’accesso alle risorse di protezione in linea”, ha spiegato Apple.
Una delle alternative presentate al bambino è quella di inviare un messaggio a un adulto su cui fare affidamento circa l’immagine contestata. Tuttavia, se il bambino sceglie di visualizzare o spedire l’immagine, Messaggi chiederà loro di verificare la propria scelta prima di sfocare l’immagine.
Istruzioni ufficiali e dettagliate su come utilizzare (abilitare e disattivare) la funzionalità sono fornite direttamente dal sito Apple.
I problemi di questa pratica
Se la funzione AI all’inizio ha sollevato preoccupazioni sulla privacy, ora che è passato circa un anno dal primo progetto, Apple ha rassicurato che non ha più accesso alle risorse interne. “Messaggi fa uso di un sistema interno per imparare a esaminare gli allegati picturegraph e decidere se un picturegraph sembra includere nudità”, ha spiegato. Apple ha poi aggiunto: “Qualsiasi utente di Messaggi, comprese le persone con la protezione della comunicazione abilitata, continua a gestire ciò che viene inviato e a chi”.
Emma Hardy, Direttore delle comunicazioni di Internet Watch Foundation (IWF), ha dichiarato: “Siamo entusiasti di vedere che Apple aumenta la protezione della comunicazione nei messaggi caratteristica del Regno Unito. In IWF, siamo impegnati a fermare l’introduzione di istantanee e video di abusi sessuali sui bambini “auto-generati”.
Oltre alla sicurezza della comunicazione, Apple ha anche introdotto altra funzione discutibile da sperimentare sugli iPhone per istantanee di abusi sui minori da segnalare alla polizia, nonostante il fatto che ora questo sia in ritardo sul programma che di fatto non ha un obiettivo temporale. Ma a settembre scorso, Apple ha dichiarato che ci sarebbe voluto più tempo per acquisire commenti e migliorare la tecnologia proposta, dopo aver ricevuto segnalazioni sul prototipo, per privacy e altri motivi diversi sia all’esterno che all’interno dell’azienda.
Apple quindi ha spiegato: “Sulla base dei commenti di clienti, gruppi di difesa dei diritti, ricercatori e altri, abbiamo deciso di lavorare di più nei prossimi mesi per acquisire accesso e apportare miglioramenti prima di rendere pubbliche queste funzioni di protezione per i bambini, significativamente essenziali”.