Chi decide cosa saremo
L’intelligenza artificiale, il potere e le nuove disuguaglianze invisibili
Di Karima Moual
Per anni abbiamo guardato alla tecnologia come si guarda a una macchina: qualcosa di freddo, razionale, neutrale. Uno strumento utile e un territorio senza ideologia.
Anche l’intelligenza artificiale viene raccontata così. Come un progresso inevitabile. Una rivoluzione capace di semplificare la vita, velocizzare il lavoro, aiutarci a capire il mondo. E in parte è già tutto questo.
Ma c’è un punto che continua a restare ai margini del dibattito pubblico: l’intelligenza artificiale non sta solo trasformando il mondo, sta anche ridefinendo chi avrà il potere di orientarlo.
È il cuore del nuovo libro di Flavia Barca, I pregiudizi dell’AI. Disuguaglianze e potere nell’era dell’algoritmo ( Donzelli editore ). Ed è forse una delle questioni politiche più profonde del nostro tempo.
Perché dietro ogni algoritmo non ci sono soltanto dati e formule matematiche. Ci sono scelte. Priorità. Visioni del mondo. Rapporti di forza.
La tecnologia non nasce mai nel vuoto.
Assorbe il linguaggio della società che la produce. I suoi squilibri, le sue paure, le sue gerarchie. E persino i suoi pregiudizi.
Ed è qui che il tema smette di essere tecnico e diventa profondamente politico.
Quando un algoritmo decide quali contenuti mostrarci, quali notizie rendere visibili, quali volti considerare “affidabili”, quali corpi classificare come sospetti, non sta semplicemente organizzando informazioni. Sta esercitando potere.
Un potere silenzioso. Quasi invisibile. Ed è forse proprio questa invisibilità a renderlo ancora più pericoloso.
Nel libro di Flavia Barca emerge con forza un punto cruciale: l’intelligenza artificiale non si limita a riflettere le disuguaglianze esistenti. Rischia di amplificarle.
Succede nel mercato del lavoro, dove i sistemi automatizzati tendono a riprodurre discriminazioni sociali e di genere.
Succede nei sistemi di riconoscimento facciale, che continuano a mostrare margini di errore molto più alti nei confronti delle donne e delle persone razzializzate.
Succede nel linguaggio, dove gli algoritmi apprendono stereotipi culturali già presenti nei dati con cui vengono addestrati.
E succede persino nella rappresentazione del mondo, perché gli algoritmi decidono sempre di più chi merita attenzione e chi no.
Chi esiste dentro il racconto dominante e chi invece viene spinto ai margini. Chi resta visibile e chi lentamente scompare.
È un meccanismo che conosciamo bene anche fuori dalla tecnologia.
Le periferie sociali, i migranti, le minoranze, le identità considerate “fuori norma” vengono spesso raccontate attraverso stereotipi semplici, rassicuranti, riduttivi.
L’intelligenza artificiale rischia di fare la stessa cosa, ma con una forza infinitamente più grande: trasformare il pregiudizio in automatismo.
Ed è esattamente in questo punto che il tema riguarda la democrazia.
Perché in una società sempre più governata da sistemi automatizzati, il controllo dell’informazione e della visibilità pubblica diventa una forma di sovranità.
Chi controlla gli algoritmi controlla sempre di più il modo in cui interpretiamo la realtà. Le nostre paure. Le nostre priorità. Perfino la nostra idea di verità.
Non è un caso che attorno all’AI si stia concentrando una gigantesca battaglia economica e geopolitica.
La posta in gioco non è soltanto il mercato. È il potere culturale. La capacità di orientare il dibattito pubblico, di costruire consenso, influenzare emozioni collettive, decidere quali narrazioni rafforzare e quali rendere invisibili.
E forse il rischio più grande è proprio questo: abituarci all’idea che le decisioni vengano prese da sistemi che percepiamo come neutrali, inevitabili, incontestabili.
Come se la tecnologia fosse un destino. E non una scelta politica.
Per questo il libro di Flavia Barca arriva nel momento giusto. Perché prova a riportare dentro il dibattito una parola che negli ultimi anni abbiamo quasi smesso di usare quando parliamo di innovazione: responsabilità.
La responsabilità di chi costruisce queste tecnologie. La responsabilità delle istituzioni, della politica.
Ma anche la responsabilità collettiva nel decidere quale idea di società vogliamo consegnare al futuro.
Per anni abbiamo pensato che il potere fosse nei parlamenti, nelle televisioni, nei giornali ma oggi il potere passa anche da ciò che un algoritmo decide di mostrarci, suggerirci, nasconderci.
E forse la grande questione politica del nostro tempo è proprio questa: capire chi sta scrivendo il codice del mondo che verrà.





