INTERNET – Santerini sul bot hitleriano di Musk: «Chi è responsabile?»

Gatti (Cdec): «Strumenti usati come oracoli»

Commenti che elogiano Hitler, teorie del complotto sul presunto potere ebraico nel mondo, allusioni velenose su “cognomi ashkenaziti” e odio razziale giustificato in nome di una “verità senza filtri”. Il caso dei post pubblicati da Grok, il chatbot sviluppato da Elon Musk, ha riacceso l’allarme su intelligenza artificiale e antisemitismo. Ma il dibattito va oltre il singolo caso: tocca la questione più ampia del rapporto tra tecnologia, ideologia e responsabilità. «Perché quando è un’IA a rilanciare odio e propaganda, chi è responsabile?», si chiede Milena Santerini, docente di pedagogia alla Cattolica e componente della Commissione contro l’odio presieduta dalla senatrice a vita Liliana Segre.
Una domanda che si incrocia con l’attualità politica italiana: in queste settimane è in discussione in Parlamento un disegno di legge sull’intelligenza artificiale. Tra i principi generali enunciati nell’articolo 3 ci sono trasparenza, sicurezza, tutela dei dati personali e rispetto dei diritti fondamentali. Ma è un emendamento proposto proprio da Santerini, vicepresidente del Memoriale della Shoah di Milano, e dal giurista Ruben Razzante a mettere al centro il nodo del discorso d’odio: “Gli algoritmi devono essere addestrati in funzione del contrasto dei fenomeni di intolleranza, razzismo, antisemitismo e istigazione all’odio e alla violenza”. Un’integrazione che Santerini auspica venga accolta. «È fondamentale che la politica non si limiti a parole di condanna quando l’odio emerge, ma agisca prima, in modo strutturale».
Per la pedagogista, già coordinatore nazionale contro l’antisemitismo, il caso Grok è emblematico. Non è una svista tecnica, ma il prodotto di una visione ideologica precisa. «L’intelligenza artificiale riflette ciò che le viene dato. Se la alimenti con contenuti tossici, restituirà risposte tossiche. E Grok è stato allenato in un ambiente, X, dove l’odio è legittimato e incoraggiato in nome della libertà assoluta. Musk teorizza l’assenza di filtri come se fosse una conquista, ma è una falsa libertà perché in realtà crea un sistema in cui l’odio può circolare indisturbato e chi ne è vittima resta invisibile». A preoccupare, spiega, è anche il tipo di contenuto generato: non un’allusione sottile, ma un antisemitismo esplicito, dichiarato, come quando il bot afferma che Hitler avrebbe saputo “gestire l’odio contro i bianchi”.
Per Stefano Gatti, ricercatore dell’Osservatorio Antisemitismo del Cdec di Milano, siamo di fronte a un salto di scala. «Ricordo quando, nel 2006, l’australiano Andre Oboler parlò di antisemitismo 2.0, riferendosi all’odio sui social. Oggi siamo oltre: l’antisemitismo digitale è automatizzato. L’IA impara dai nostri peggiori bias e li ripropone con l’autorevolezza della macchina. È un pericolo sistemico». Gatti sottolinea che non si tratta solo di “errori” o bug, ma di un risultato perfettamente coerente con l’assenza di barriere etiche. «Il fatto che un chatbot, nel 2025, affermi che “gli ebrei controllano il mondo” o faccia l’apologia di Hitler, non è un’anomalia tecnica. È un segnale d’allarme politico e culturale».
Entrambi gli esperti insistono su un nodo cruciale: la percezione che le persone hanno di questi strumenti. «Molti li usano come se fossero oracoli», sottolinea Gatti. Se un ragazzo chiede perché ce l’hanno con gli ebrei e il chatbot risponde che è perché controllano il mondo, c’è il rischio che lo prenda per vero. «Nessuno verifica la fonte, nessuno si chiede chi ha scritto cosa. È una fiducia cieca e pericolosa». Santerini osserva che i chatbot stanno sostituendo i motori di ricerca, con una dinamica ancora più semplificata: non si accede a una lista di risultati, ma si ottiene una risposta unica, rapida, e per lo più senza fonti. Ecco perché, sottolineano Gatti e Santerini, servono trasparenza e tracciabilità, e un impegno politico sul controllo dei contenuti generati. «Cosa fare? Primo: servono algoritmi etici, alimentati in modo responsabile. Non parlo di chatbot “politicamente corretti”, ma di sistemi che non riproducano razzismo, antisemitismo o altre forme di odio. Secondo: serve trasparenza delle fonti e visibilità di come vengono costruite le risposte. E infine, serve una gestione etica dell’IA, come chiedono anche i documenti ufficiali dell’Unione Europea. Ricordiamoci che le linee guida europee esistono, ma vanno applicate», spiega la vicepresidente del Memoriale.
«Non basta più indignarsi. Abbiamo già visto cosa succede quando i social vengono lasciati senza regole. Ora stiamo ripetendo gli stessi errori con l’intelligenza artificiale. Serve un intervento prima, non dopo che coinvolga anche le scuole», conclude Gatti.
Perché se la tecnologia ci serve a costruire narrazioni, allora quelle narrazioni vanno sorvegliate con la stessa serietà con cui si vigilerebbe su un manuale scolastico».

Daniel Reichel