l'intelligenza artificiale è molto più umana di quanto pensiate

E il risultato è una spaventosa reiterazione di gerarchie di potere, pregiudizi razziali e discriminazioni di genere di cui neanche ci accorgiamo.

di Benedetta Pini
|
18 settembre 2019, 5:00am

Stando al Cambridge Dictionary, il termine bias definisce “the action of supporting or opposing a particular person or thing in an unfair way, because of allowing personal opinions to influence your judgment” [l’azione di supportare o contrastare una persona specifica o un oggetto particolare in modo ingiusto, per via di opinioni personali che influiscono sul giudizio, NdR].

Anche la definizione fornita da Wikipedia Italia ci dà informazioni di simile tenore: “Il bias cognitivo è un pattern sistematico di deviazione dalla norma o dalla razionalità nel giudizio. In psicologia indica una tendenza a creare la propria realtà soggettiva, non necessariamente corrispondente all'evidenza, sviluppata sulla base dell'interpretazione delle informazioni in possesso, anche se non logicamente o semanticamente connesse tra loro, che porta dunque a un errore di valutazione o a mancanza di oggettività di giudizio.”

Fondazione Prada - Training Humans

Sembra che siamo partiti da lontano per arrivare al punto e parlarvi di una mostra sviluppata attorno al tema delle AI, ma non è così. Perché, come spiegato sempre da Wikipedia, l’apprendimento automatico di un algoritmo si basa proprio su questo sistema: per costruire algoritmi che siano in grado di apprendere una certa funzione “si fornisce all’algoritmo un insieme di addestramento che contiene esempi della relazione sottesa tra valori di ingresso [input] e di uscita [output] della funzione obiettivo.”

Il tipo di assunzioni e di conclusioni che il classificatore effettua sulla base di questi esempi prende il nome di bias induttivo. Ecco che il titolo della mostra adesso in corso all’Osservatorio Fondazione Prada, e che continuerà fino al 24 febbraio 2020, è più eloquente che mai: Training Humans.

Fondazione Prada - Training Humans

Concepita da Kate Crawford—ricercatrice e studiosa nell’ambito dell’AI e co-fondatrice dell’AI Now Institute presso la New York University—insieme all’artista e ricercatore Trevor Paglen, la mostra nasce da una presa di coscienza spiazzante in seguito alla pubblicazione di un report stilato nel 2017: gli sforzi compiuti fino a oggi per mantenere l’AI all’interno degli standard etici sono sfociati un in flop. A dimostrarlo in modo chiaro, diretto e a tratti disturbante è proprio Training Humans. L’esposizione vi guiderà in un percorso cronologico che ripercorre la storia delle immagini utilizzate per il riconoscimento facciale: dai primi esperimenti in laboratorio finanziati dalla CIA negli anni ‘60 fino all’utilizzo delle foto pubblicamente postate dagli utenti sul web, sostituendo man mano i database sviluppati negli anni ‘90, come il Face Recognition Technology (FERET).

Fondazione Prada - Training Humans

Il problema non è tanto nei database, ma nel training di questa intelligenza artificiale su cui si fondano i sistemi di facial recognition. Questa sorta di istruzione parte con le immagini raccolte e classificate da team di ricercatori, che dettano alle macchine gli input sulla base dei quali classificare a loro volta il mondo. Il problema sorge nel momento in cui viene sottovalutato il fattore umano di questa trafila, oscurato dal pregiudizio che le intelligenze artificiali siano qualcosa di assolutamente oggettivo e robotizzato. Le immagini vengono raccolte da esseri umani e classificate da esseri umani, i sistemi sono progettati da esseri umani e si nutrono di informazioni elaborate da esseri umani. Se tutto parte da un bias cognitivo, o in altre parole, da un errore umano, il sistema induttivo risulterà sporco, opaco e pregiudiziale, pregno degli script, delle ideologie, delle supposizioni e delle valutazioni morali che, volenti o nolenti, sono insite nella mentalità di chi ha avviato l’intero processo. Come spiegava la stessa Kate Crawford al Wired Next Fest del 2018, il problema diventa ancora più radicale se si pensa che le società esperte nel settore sono pochissime in tutto il mondo (non più di una decina), col risultato di detenere un monopolio che è difficile possa assicurare trasparenza, e le persone che si occupano di queste ricerche sono ingegneri informatici con una preparazione specifica che non tiene conto delle implicazioni storiche, sociologiche e antropologiche delle scelte che le AI prendono proprio sulla base dei loro input.

Fondazione Prada - Training Humans

Il risultato è mostrato al piano superiore della mostra. Oltre 60mila immagini classificate secondo criteri profondamente umani e soggettivi, persino discriminatori o stereotipati. Ed è sulla base di questi dati che soggetti pubblici e privati classificano, segmentano e sorvegliano tutti noi tramite sistemi di AI: andatura, emozioni, dati biometrici, fisiognomica, razza, età, genere determinano le scelte di questi sistemi; e il passo verso la frenologia e l’eugenetica è spaventosamente breve. In questo modo vengono rinforzati e reiterati discriminazioni e (dis)equilibri di potere sulla base di pregiudizi morali, razziali, sociali o di genere, con la conseguenza di rendere ancora più emarginato chi già lo è. Se infatti queste logiche vengono applicate anche in settori cruciali e delicati come l’educazione, la sanità, la sorveglianza militare, la giustizia e il lavoro, le implicazioni politiche del training dei sistemi di facial recognition sono evidenti e i costi sociali altissimi.

Per questo Training Humans non è solo una mostra, ma una critica amara e consapevole dei sistemi di Intelligenza Artificiale, allo scopo di attirare l'attenzione sulla questione. L'obiettivo è infatti quello di rifondare da capo il sistema di training, sulla base di un background completamente nuovo: non solo tecnico, ma anche storico, sociologico e antropologico. Solo così il problema dei bias - inevitabile in qualsiasi processo classificatorio, come dimostra il Teorema del brutto anatroccolo - potrà essere risolto e l'AI potrà diventare una risorsa eticamente pulita.

A proposito di nuove tecnologie inquietanti molto più reali di quanto possiate pensare:

La mostra Training Humans è visitabile dal 12 settembre 2019 al 24 febbraio 2020 presso Fondazione Prada, Milano. Trovi qui tutte le informazioni necessarie sulla mostra.

Crediti

Testo di Benedetta Pini
Immagini per gentile concessione di Fondazione Prada

Tagged:
AI
Tecnologia
intelligenza artificiale
fondazione prada
mostre d'arte
mostre a milano
cosa fare