Abbiamo aperto la scatola nera dell’algoritmo

Abbiamo provato ad aprire quella scatola nera. Ma non basta aprirla, perché dentro c’è un groviglio di formule che solo pochi riescono a capire. E’ questa la forza dell’algoritmo: è impalbabile, misterioso, incombente. Il Festival dei Diritti Umani ha affrontato un tema complesso: il potere dell’intelligenza artificiale e il suo impatto sui nostri diritti, sulle nostre libertà. Tre giorni, una cinquantina di incontri, un centinaio di ospiti, tre film e 4000 studenti: un record. 

Come sempre ci domandiamo cosa abbiamo imparato. Questa volta la risposta più facile è: decidetelo voi! Perché trovate sulla nostra piattaforma www.festivaldirittiumani.stream tutto ciò che è andato online, interviste, talk, “corti”, fumetti, videogames, arte e fotografia…

Il Festival si è svolto quest’anno proprio nei giorni in cui sono venute a maturazione molte notizie sull’intelligenza artificiale: dalla bozza di regolamento europeo alla discussione sulla liberalizzazione temporanea dei brevetti vaccinali, dai fondi per il digitale nel PNRR alla bocciatura del Garante per la privacy del sistema di riconoscimento facciale. Casualità? Certo, ma è il segnale che è urgente una regolamentazione dell’intelligenza artificiale. Per oltre un ventennio le grandi imprese tecnologiche hanno beneficiato di una totale deregulation e di una stampa amica: hanno fatto letteralmente i miliardi grazie ai dati personali che ciascuno di noi ha fornito. «Gli algoritmi sono un po’ di matematica, un po’ di tecnologia e molto mistero» ha riassunto Philip Di Salvo. Quel mistero che è la garanzia del successo delle Big Tech. Un successo a scapito delle nostre libertà? Risposta difficile, sicuramente ci sono molti campanelli d’allarme: il riconoscimento facciale – ci ha spiegato Dolkun Isa, leader della diaspora uigura – è usato dal governo cinese per reprimere la minoranza musulmana nello Xinjang. E non solo, gli hanno fatto eco Simone Pieranni e Filippo Santelli, ex corrispondenti da Pechino che hanno visto il controllo sociale delle macchine sovrapporsi al controllo sociale del Partito Comunista Cinese. Non è l’asfissiante controllo “made in China” ma altrove non va meglio: dagli Stati Uniti arrivano film e testimonianze sulla discriminazione provocata dagli algoritmi. Lì sono gli afroamericani ad essere vessati, qui sono le donne. «L’algoritmo è conservatore, premia chi si attiene allo status quo, perché è programmato così» ci ha detto la filosofa del diritto Alessandra Facchi. Ma anche perché nella stragrande maggioranza dei casi è programmato da un uomo – nel senso di maschio – e alimentato con i dati attuali, quindi sbilanciati a favore del predominio maschile. Possiamo cambiare questo stato di cose? Sì, hanno risposto quasi tutti i nostri ospiti, ma non sarà facile. «Formiamo programmatori che siano attenti al bene comune», ha proposto Marina Calloni, docente alla Bicocca; «ci devono essere più donne dove vengono prese le decisioni», ha aggiunto Marilisa D’Amico, prorettrice della Statale. In attesa di questa auspicata svolta portiamo a casa un piccolo risultato: il Festival dei Diritti Umani ha provato ad aprile quella “scatola nera” dell’algoritmo e insieme ai tecnici invitati ha svelato qualche piccolo segreto ad un pubblico di giovani e giovanissimi. Il messaggio è arrivato forte e chiaro: usate pure l’algoritmo, ma non fatevi usare.

Danilo De Biasio 

La foto è di Leonardo Brogioni