L’Italia indaga DeepSeek: chatbot AI sotto accusa per contenuti fuorvianti e mancanza di trasparenza

Le autorità italiane hanno avviato un'indagine ufficiale nei confronti di DeepSeek, una startup cinese attiva nel settore dell’intelligenza artificiale, accusata di fornire informazioni potenzialmente fuorvianti agli utenti italiani attraverso il proprio chatbot AI. A comunicarlo è l’Autorità Garante della Concorrenza e del Mercato (AGCM), che contesta all’azienda la mancanza di trasparenza e la carenza di adeguati avvertimenti sull'affidabilità dei contenuti generati.

Secondo l’AGCM, il chatbot sarebbe stato presentato come un assistente avanzato in grado di fornire risposte precise anche su temi delicati, come quelli medici o legali, senza però chiarire in modo efficace che tali risposte potrebbero essere inesatte, parziali o addirittura inventate, un fenomeno noto nel settore come “hallucination”, ossia la tendenza di alcuni modelli linguistici a generare contenuti plausibili ma completamente errati.

Al centro delle critiche c’è proprio l’assenza di messaggi di avviso chiari, immediati e comprensibili per l’utente, che potrebbero altrimenti evitare il rischio di attribuire al sistema un livello di affidabilità che non possiede. L’AGCM sottolinea che la mancanza di trasparenza nella promozione e nell’utilizzo del chatbot potrebbe costituire una pratica commerciale scorretta e lesiva dei diritti dei consumatori.

Non è la prima volta che DeepSeek finisce nel mirino delle autorità italiane. Già ad aprile 2025, il Garante per la protezione dei dati personali (il garante della privacy) aveva disposto il blocco temporaneo del servizio in Italia, a causa di gravi carenze nella gestione dei dati personali e nell’informativa agli utenti. In quel caso, l’attenzione era rivolta soprattutto alle politiche di trattamento dei dati e alla possibilità che informazioni sensibili potessero essere raccolte e conservate senza adeguate tutele.

Per ora, DeepSeek non ha rilasciato commenti ufficiali sull’apertura dell’indagine da parte dell’AGCM. Resta da vedere se l’azienda adotterà misure correttive per conformarsi alla normativa italiana, oppure se deciderà di contestare le accuse. Intanto, l’intervento delle autorità si inserisce in un contesto più ampio di crescente attenzione, a livello europeo, sull’impatto dell’intelligenza artificiale nei confronti dei diritti dei cittadini e sulla necessità di sviluppare sistemi affidabili, sicuri e trasparenti.

Nuova Vecchia

نموذج الاتصال