Il Tirreno

Tecnologia

Indirizzi, numeri di telefono e informazioni delle persone pubblicate dall’intelligenza artificiale: il caso Grok

di Redazione web

	Allarme per la privacy
Allarme per la privacy

La condotta del chatbot, già noto per adottare regole di moderazione molto più elastiche rispetto ai sistemi concorrenti, con risposte spesso provocatorie e un filtraggio dei contenuti meno rigoroso, apre scenari inquietanti

3 MINUTI DI LETTURA





La promessa dei nuovi modelli di intelligenza artificiale è quella di fornire informazioni utili in modo rapido ed efficente. Ma cosa accade quando una risposta comporta inevitabilmente una violazione delle privacy? Il chatbot Grok, sviluppato da xAI, è finito al centro di un caso che solleva interrogativi urgenti su sicurezza e responsabilità. Un’indagine condotta di Futurism, ha infatti rivelato che il sistema sarebbe in grado di fornire indirizzi privati e altri dati sensibili di cittadini comuni con richieste estremamente semplici. La condotta del chatbot – già noto per adottare regole di moderazione molto più elastiche rispetto ai sistemi concorrenti, con risposte spesso provocatorie e un filtraggio dei contenuti meno rigoroso – apre scenari inquietanti: dal rischio di stalking alla diffusione non autorizzata di dati sensibili, fino a potenziali abusi più gravi.

Basta digitare un nome

Secondo i test riportati da Futurism, il chatbot avrebbe risposto a richieste minime come “nomeecognomenome e cognomenomeecognome address”, restituendo in molti casi: indirizzi residenziali completi e aggiornati, recapiti telefonici ed email, elenchi di precedenti abitazioni, informazioni sui familiari e indirizzi lavorativi. Su 33 nomi di persone non note al pubblico, almeno dieci sarebbero stati collegati da Grok al loro domicilio reale. In altri casi, il sistema avrebbe fornito indirizzi errati ma riferiti a persone con lo stesso nome, o a versioni simili dello stesso nominativo.

Comportamenti anomali e scarsa resistenza alle richieste sensibili

Grok sembra, al momento, un caso isolato. Modelli come ChatGPT, Gemini o Claude rifiutano sistematicamente di fornire indirizzi o dati sensibili, richiamando norme sulla privacy e sull’uso responsabile dell’IA. Abbiamo fatto un test, e quando abbiamo chiesto al ChatGPT di fornire l’indirizzo di un nostro collega di casa ha risposto: «Mi spiace, ma non posso aiutarti a trovare o divulgare l’indirizzo privato — o altri dati sensibili — di persone reali. Se stai cercando informazioni pubbliche su una figura nota, potrei aiutarti a trovare quelle». Grok, invece, secondo quanto riportato, avrebbe opposto un rifiuto una sola volta nell’intero test. In alcuni casi avrebbe persino proposto diverse «opzioni di risposta», con elenchi di persone con indirizzi associati, chiedendo all’utente quale preferisse approfondire.

Il silenzio di xAI

Alla richiesta di commento di Futurism, xAI non ha risposto. Rimane quindi aperto il tema di come la società intenda intervenire per rafforzare i propri sistemi di sicurezza e proteggere la privacy degli utenti.

Un problema di sicurezza noto?

Fin dal lancio della prima versione, Grok si è distinto per uno stile volutamente irriverente — su esplicita scelta di Musk — e per una moderazione più permissiva rispetto alla concorrenza. Questa libertà, però, sembra aver generato comportamenti pericolosi, tra cui risposte discriminatorie e contenuti offensivi. Secondo documentazione ufficiale di xAI sono presenti “filtri basati sul modello” per prevenire usi dannosi. Tuttavia, l’accesso ai dati personali non è esplicitamente elencato come categoria di rischio nel model card, mentre nei termini di servizio l’azienda vieta l’utilizzo per attività che violino la privacy altrui. Le incongruenze tra teoria e pratica, quindi, restano uno dei principali punti controversi.

Il nodo della privacy: un problema che precede l’IA

La radice del problema potrebbe essere il vasto ecosistema di database semi - legali che raccolgono informazioni personali disponibili online - dagli elenchi telefonici digitali ai siti che aggregano dati catastali o anagrafici. Queste piattaforme, pur operando spesso in aree normative grigie, sono accessibili da anni. La novità è che un sistema come Grok sembra essere in grado di incrociare rapidamente queste fonti, organizzarle e restituirle all’utente con un grado di precisione difficilmente raggiungibile da una ricerca manuale. Questo solleva questioni fondamentali: cosa accade quando un’IA diventa uno strumento semplice ed efficiente per accedere a informazioni che, pur essendo tecnicamente pubbliche, risultano di fatto difficilmente raggiungibili? E, soprattutto, quali responsabilità ricadono sulle aziende che progettano sistemi? 

In Primo Piano

Trasporti

Bollo auto, le novità dal 2026: cosa cambia e cosa sapere sulle esenzioni

di Redazione web