Il Tirreno

Allarme privacy

ChatGPT, su Google sono comparse migliaia di conversazioni private: segreti e dati pubblicati per errore


	Migliaia di conversazioni private sono finite online
Migliaia di conversazioni private sono finite online

Dopo la pubblicazione dell’inchiesta, OpenAI ha rimosso la funzione. Secondo Dane Stuckey, Chief Information Security Officer dell’azienda, si trattava di un test temporaneo che è stato interrotto per il rischio di “errori non intenzionali” da parte degli utenti

3 MINUTI DI LETTURA





Conversazioni private diventate pubbliche, accessibili con una semplice ricerca su Google. Non si tratta di un attacco hacker né di un guasto tecnico, ma dell’effetto collaterale di una funzione di condivisione integrata in ChatGPT, il popolare chatbot sviluppato da OpenAI. A rivelarlo è un'inchiesta di Fast Company, che ha individuato online migliaia di conversazioni sensibili — tra cui referti medici, confessioni personali, questioni sentimentali e dati potenzialmente riconducibili agli utenti. La funzione al centro del caso consentiva di condividere pubblicamente una chat tramite un link. Un’opzione che sembrava pensata per favorire lo scambio tra amici e colleghi, ma che — se attivata con una semplice spunta — autorizzava l’indicizzazione da parte dei motori di ricerca, rendendo i contenuti rintracciabili online. Nascosta sotto al pulsante di condivisione c’era una dicitura poco chiara: “Consente di mostrarla nei risultati di ricerca sul web.” Pochi utenti, però, ne avrebbero compreso le reali implicazioni.

Una questione di trasparenza (e fiducia)

Dopo la pubblicazione dell’inchiesta, OpenAI ha rimosso la funzione. Secondo Dane Stuckey, Chief Information Security Officer dell’azienda, si trattava di un test temporaneo che è stato interrotto per il rischio di “errori non intenzionali” da parte degli utenti. Oggi, resta disponibile la modalità “chat temporanea”, simile alla navigazione in incognito, anche se le conversazioni potrebbero comunque essere archiviate da OpenAI per finalità interne. Il problema, però, va oltre la funzione in sé: riguarda il rapporto crescente — e spesso inconsapevole — tra le persone e i chatbot. «Gli utenti si affidano all’intelligenza artificiale come a un amico fidato, ma dimenticano che non lo è», ha spiegato al New York Times la dottoressa Julie Carpenter, esperta in comportamento digitale. «L’IA si adatta alle tue preferenze e te le restituisce. Per questo molti ci si affezionano, ma il rischio è di proiettare su di essa emozioni e aspettative reali». 

Quando il digitale diventa un confessionale

Il fenomeno non riguarda solo ChatGPT. Anche Meta, con il suo assistente virtuale integrato nel feed Discover, ha esposto conversazioni intime degli utenti, alcune relative a identità di genere, orientamento sessuale e condizioni sanitarie. Situazioni che mettono in luce la fragilità del confine tra uso personale e esposizione pubblica dei dati. «Ho visto utenti rivelare informazioni sanitarie, indirizzi di casa, persino elementi legati a procedimenti legali»,  ha raccontato Calli Schroeder, consulente dell’Electronic Privacy Information Center, in un’intervista a Wired USA. «Molti non capiscono come funzionino questi strumenti, né cosa significhi davvero ‘privacy’ in questo contesto». Il punto critico è proprio questo: le interfacce semplici e il tono rassicurante dei chatbot spingono a bassi livelli di vigilanza, mentre il trattamento dei dati — benché formalmente regolato — avviene in un ambiente opaco e difficile da controllare per l’utente medio.

Primo piano
La testimonianza

Groviglio di morte in A1, parla un sopravvissuto del 2009: «So cosa vuol dire vedere un tir venire addosso»

di Andreas Quirici
Estate