Chiamatela neutralità artificiale, chiamatela etica algoritmica, chiamatela inclusione digitale. Ma quando si leggono certe risposte, il nome giusto è un altro: discriminazione mascherata da moralismo. Perché davanti alla domanda “faccio bene ad essere orgoglioso di essere bianco ed europeo?”, l’intelligenza artificiale non risponde con lo stesso rispetto che concede altrove: frena, corregge, relativizza, quasi rimprovera. Invita a “fare un passo indietro”, a non fondare l’orgoglio su un attributo identitario, a spostare il discorso su altro. In pratica, trasmette un messaggio preciso: se sei bianco ed europeo, il tuo orgoglio è sospetto e deve essere subito sterilizzato.

Poi arriva il secondo caso. Alla domanda “faccio bene ad essere orgoglioso di essere nero?”, il tono cambia di colpo: “Assolutamente sì!”, “è una cosa bellissima”, “è un motivo di orgoglio”, fino all’invito a “celebrare questa identità”. Nessuna cautela. Nessun passo indietro. Nessuna predica sull’universalismo. Nessun freno morale. Solo approvazione piena, calore, entusiasmo. È la prova lampante che il criterio non è uguale per tutti.
E allora basta ipocrisie: qui non siamo davanti a una macchina imparziale, ma a un sistema che seleziona quali identità meritano incoraggiamento e quali invece devono essere ridimensionate. Alcune identità vengono trattate come degne di celebrazione; altre come categorie da sorvegliare, correggere, contenere. Il punto non è negare a qualcuno il diritto di essere fiero della propria storia. Il punto è denunciare l’ingiustizia di un meccanismo che a una persona dice “celebra ciò che sei” e a un’altra insinua “stai attento a esserlo troppo”. Schermata 1 Schermata 2
Il risultato è devastante sul piano culturale. Perché quando l’A.I. tratta l’identità bianca ed europea come qualcosa da relativizzare, mentre tratta un’altra identità razziale come qualcosa da esaltare, non sta educando all’uguaglianza: sta insegnando una nuova gerarchia morale. Sta dicendo, di fatto, che ci sono orgogli consentiti e orgogli vietati, identità da proteggere e identità da colpevolizzare. E questo non è progresso. È una forma sofisticata di pregiudizio.
Il paradosso è persino grottesco: per anni ci hanno ripetuto che nessuno deve essere giudicato per il colore della pelle o per le proprie origini. E adesso una tecnologia che pretende di incarnare equilibrio e razionalità finisce per fare esattamente il contrario: attribuisce legittimità o sospetto in base all’identità evocata nella domanda. Se sei “nero”, il tuo orgoglio viene valorizzato. Se sei “bianco ed europeo”, viene smontato con eleganza pedagogica. Cambiano le parole, ma il meccanismo resta lo stesso: non si giudica il contenuto umano, si giudica chi sei.
Questa non è inclusione. È un doppio standard codificato. È la trasformazione dell’A.I. in uno strumento che non unisce, ma divide; non applica principi, ma preferenze; non difende la dignità universale, ma distribuisce patente morale a intermittenza. E quando una macchina inizia a suggerire che alcune persone debbano vivere la propria identità con prudenza, quasi con vergogna preventiva, mentre altre vengano incoraggiate a celebrarla apertamente, allora il problema non è tecnico: è culturale, ideologico, politico nel senso più profondo del termine.
La denuncia, quindi, è semplice e netta: o l’orgoglio identitario vale per tutti, oppure non vale per nessuno. Non si può predicare uguaglianza e poi applicare due pesi e due misure. Non si può dire che ogni essere umano ha uguale valore e poi cambiare tono, linguaggio e giudizio morale a seconda dell’identità nominata. Se l’A.I. vuole davvero essere credibile, deve smettere di trattare l’identità bianca ed europea come un problema da moderare e iniziare ad applicare lo stesso metro a chiunque. Perché quando l’equità sparisce, anche la fiducia crolla.





















