Pesi differenti
Lo scorso luglio, a Detroit, una persona è stata arrestata e accusata sulla base di un riconoscimento facciale risultato errato.
Per brevità tralasciamo l’inquietante discorso sulla sorveglianza pubblica e andiamo solo sull’utilizzo da parte delle piattaforme web.
Non è la prima volta che si parla di disparità razziali o culturale da parte degli algoritmi di ricerca o di riconoscimento. Qui c’è una questione di qualche tempo fa sul motore di Google e qui un talk interessante di Joy Buolamwini su questa tendenza che lei chiama Coded Gaze.
Se ne è riparlato l’anno scorso in questo articolo di Wired dove, oltre alle argomentazioni note, si fa riferimento al Face Recognition Vendor Test del NIST, che periodicamente testa la validità di alcuni algoritmi disponibili per il riconoscimento facciale (ma fermiamoci qui un attimo per tornarci dopo).
Ri-scoppia la vicenda proprio quest’anno e stavolta si parte da Zoom il cui sfondo virtuale non delinea correttamente i contorni delle persone di colore, e arriva a Twitter: il meccanismo automatico di displaying delle foto sulla piattaforma “preferirebbe” i volti di persone bianche.
Andiamo ad analizzare con ordine gli ultimi due dati. Leggendo la versione di dicembre 2019 del rapporto, l’ultima disponibile e successiva all’articolo di Wired, ci sono alcune note interessanti: innanzitutto il report testa vari algoritmi che sono arrivati in questa fase già addestrati e testati. Semplificando tantissimo, l’addestramento è la fase in cui all’algoritmo vengono insegnate le caratteristiche degli elementi che dovrà trattare dandogliene in pasto una quantità enorme (il cosiddetto dataset). Successivamente si ottengono dei risultati che verranno poi testati con altri elementi di test e quando si raggiungerà un valore di errore accettabile - secondo i criteri degli sviluppatori - verrà reso disponibile. Ed è a questo punto che il NIST entra in gioco per collaudare i meccanismi da utente finale.
A pagina 4 il rapporto dice che gli algoritmi e gli studi che vengono comunemente citati non sono correttamente presi in considerazione perché non si distingue fra algoritmi di classificazione, riconoscimento e stima. A pagina 7 si fa notare come la maggiore occorrenza di errori avvenga più per le etnie indiane e asiatiche che per quelle afroamericane. I falsi negativi sono più numerosi con le donne afroamericane. Tutte queste considerazioni sono solo, ovviamente, per precisione di analisi.
La realtà dei fatti, però, è dura. Le immagini sono effettivamente tagliate automaticamente sugli uomini bianchi, sulle donne bianche e non risparmiano i personaggi dei Simpson. Il problema sussiste, ma chi centra il punto potrebbe essere Dantley Davis, il CDO di Twitter.
Chi legge con le lenti della cronaca potrebbe pensare che il punto sia sull’assunzione di responsabilità, ma chi ha uno spirito tecnico molto probabilmente pensa che il punto principale sia la possibilità di agire e migliorare tale situazione. Un algoritmo può essere modificabile o migliorabile ma può anche essere sostituibile. Non c’è sempre assenza di alternative o di leve da muovere. È un po’ il principio dell’OpenSource: se mi dici che una cosa funziona in una certa maniera e poi vedo che non è così, me ne accorgo e ti sostituisco o ti modifico. Tornando al NIST, oltre ai risultati, in fondo al documento ci sono addirittura le modalità di miglioramento suggerite.
Siamo abituati ad una visione monolitica dei servizi e di tutto ciò che c’è dietro, ma non è sempre così e sebbene sia necessario vigilare su certe questioni, non riflettere sul fatto che siano mere e semplici tecnologie su cui si può tranquillamente intervenire può portare sulla strada sbagliata ma costellata di buone intenzioni.
PS: Non è noto se siano state fatte modifiche da parte di Twitter, ma attualmente - su app mobile - le foto risultano correttamente visibili nell’interezza senza tagli.
I link di questa settimana:
● Le nazioni più potenti vogliono ancora implementare una backdoor per gli algoritmi di crittografia. E non è affatto una buona idea.
● Gli astronauti americani non voleranno più usando navette russe. Benvenuta Space X.
● Se n’è andato Eddie Van Halen. Ecco come modificava le sue chitarre.
● Potrebbe valere la pena guardare una galleria fotografica dei bagni pubblici di Tokyo.
—
NRS è la newsletter di cultura e tecnologia di INUTILE » associazione culturale. A cura di Francesca Balestrieri, Carmine Bussone e Matteo Scandolin. Per conoscere meglio INUTILE e i suoi progetti, visita il nostro sito; se ti piace quello che facciamo, sostienici. Puoi contattare la redazione di NRS via Twitter o via mail.