Lo sviluppo tecnologico contemporaneo basato sulle tecniche di machine learning tende ad avere un rapporto estremamente riduttivo col concetto generale di "identità".
Il problema è sia metodologico che pratico: da un lato, l'intelligenza artificiale tende ad essere addestrata tramite metodi che, spesso, si basano sul classificare secondo etichette predeterminate e che dunque presuppongono una rigidità categorica nella visione del mondo che lascia poco spazio all'ambiguità; dall'altro, i database sui quali gli algoritmi vengono addestrati sono estremamente limitati dal punto di vista della diversità.
La scala e la pervasività con cui i metodi di machine learning si stanno diffondendo, unite alla presunta "oggettività" e "neutralità" con cui solitamente la tecnologia viene percepita, fanno sì che si perpetuino in maniera strutturale e si "naturalizzino" vari pregiudizi intrinseci su razza, genere, sesso, e così via, escludendo di fatto (e con scarse possibilità di ricorso, poiché la tecnologia viene vista come oggettiva e dunque giusta) coloro che non si conformino all'ideale dei vari programmatori e data analyst di turno.
I gruppi già marginalizzati rischiano di non figurare nel modo in cui l'intelligenza artificiale legge e comprende il mondo, divenendo così ancora più marginalizzati. Questo è un circolo vizioso che rischia peraltro di essere accettato a livello sociale: non solo perché, ancora una volta, la tecnologia viene vista come "obiettiva" e dunque incontrovertibile, ma anche perché, più banalmente, la maggior parte delle persone tende 1) ad universalizzare la propria esperienza personale e 2) a non riscontrare incongruenze (e dunque potenziali ingiustizie) in algoritmi ideati per funzionare per la maggior parte delle persone.
Bisognerebbe però cercare di mantenere un atteggiamento critico nei confronti delle tecnologie basate sul machine learning, perché questi questi algoritmi governano e governeranno, in un futuro molto prossimo, numerosi aspetti (anche delicati) della nostra vita personale e della nostra società. Se, ad esempio, la polizia può far uso di algoritmi di riconoscimento facciale per dimostrare la colpevolezza di una persona (questo già accade), allora un algoritmo che venisse addestrato su database di immagini a prevalenza di una determinata etnia, ma non riuscisse a differenziare in maniera soddisfacente tra persone di altre etnie (o, addirittura, tra uomini e gorilla), potrebbe incorrettamente incolpare di un crimine una persona che, quel crimine, non l'ha commesso. Per fare un altro esempio: nel campo medico, un sistema in cui l'intelligenza artificiale medi sempre più il rapporto tra paziente e dottore potrebbe avere conseguenze - letteralmente - letali nel caso in cui l'algoritmo non sia stato addestrato a riconoscere adeguatamente corpi "non conformi" (come possono esserlo quelli delle persone transgender o non-binary).
—
Un nuovo algoritmo di machine learning riesce a sintetizzare una voce dopo averne ascoltato appena 5 secondi di registrazione. Qui i risultati.
Google compra Fitbit e, poco dopo, si viene a sapere del suo progetto "Nightingale". Anche il nostro stato di salute gli sarà visibile (e monetizzabile).
La nascita della bio-rete.
—
NRS è la newsletter di cultura e tecnologia di INUTILE » associazione culturale. A cura di Francesca Balestrieri, Carmine Bussone e Matteo Scandolin. Per conoscere meglio INUTILE e i suoi progetti, visita il nostro sito; se ti piace quello che facciamo, sostienici. Puoi contattare la redazione di NRS via Twitter o via mail.