Conseguenze
A maggio scorso, Google ha presentato LaMDA, il suo modello di intelligenza artificiale in grado di sostenere conversazioni autonome con umani. Fra dicembre 2020 e febbraio 2021, la stessa Google aveva licenziato due responsabili del suo AI Ethics team per aver pubblicato un report in cui si dicevano fortemente critici sugli sviluppi del motore di AI e per i risultati che fino a quel momento aveva riportato: gli alti costi della ricerca sui modelli linguistici come quelli ambientali (un singolo calcolo per addestrare un modello aveva lo stesso impatto in termini di CO2 di un volo di linea) e anche i risultati basati su dati non verificabili e ovviamente non liberi da bias e da errori. I risultati, inoltre, contenevano errori di elaborazione e contenuti caratterizzati da elementi quali odio, razzismo e misoginia (Chi va per questi mari, questi pesci piglia, si dice dalle mie parti). Non dimentichiamoci che i dati presi dalla rete sono quasi per natura fallaci e qualsiasi elemento legati alle visioni della società può essere molto variabile, anche in buona fede. E fare danni seri, perché anche di un’opinione distorta si può morire.
In Corea del Sud esiste Coupang, una start-up nata una decina di anni fa da un ex-alunno di Harvard sudcoreano poi tornato in patria. Coupang è un’azienda di e-commerce con circa 37000 dipendenti. Coupang è uno dei motivi per cui Amazon non prende piede in quella nazione: praticamente tutti i coreani hanno installata la sua app sul cellulare, ogni cittadino coreano si trova a meno di quindici chilometri da un sito di distribuzione e le consegne vengono garantite per il giorno stesso nel 99% dei casi. Coupang usa l’Intelligenza Artificiale per prevedere gli acquisti e le consegne da effettuare tramite una flotta di delivery efficientissima. Nella Corea del Sud, la cultura dell’essere efficienti nelle consegne degli ordini è qualcosa che è presente da tempo, molto prima di Amazon e simili. Eppure, mai come ora, stanno vivendo il problema dell’over-work dopo che alcuni corrieri e lavoratori sono morti per arresto cardiaco o altre patologie legate allo stress.
Non c’è alcuna intelligenza artificiale, invece, nelle morti sul lavoro di cui, all’improvviso si sta parlando in Italia. Non ci sono modelli probabilistici negli impianti di sicurezza manomessi per aumentare i carichi, la produttività o le persone da trasportare. Eppure le conseguenze sono le stesse. Odio e morte. Ognuna di esse profondamente ingiusta.
Sembrano realtà lontane, ma non lo sono così tanto. Perché per le nuove tecnologie così come per le vecchie, la domanda che dovrebbe porsi chi vuole implementare le soluzioni che sembrano vantaggiose è sempre la stessa: “Mi conviene davvero farlo?”.
—
I link di questa settimana:
Ma di questa variante Delta, ci dobbiamo preoccupare? Alcuni dicono di sì.
Le compagnie petrolifere hanno iniziato a ingaggiare degli influencer su Instagram.
Una scienziata italiana sta studiando la composizione interna degli esopianeti usando il laser più potente al mondo. È una cosa figa anche solo a dirla.
La Thailandia mette al bando gli NFT.
La penuria di chip sta dando origine a un classico fenomeno di risposta: i pezzotti.
—
NRS è la newsletter di cultura e tecnologia di INUTILE » associazione culturale. A cura di Francesca Balestrieri, Carmine Bussone e Matteo Scandolin. Per conoscere meglio INUTILE e i suoi progetti, visita il nostro sito; se ti piace quello che facciamo, sostienici. Puoi contattare la redazione di NRS via Twitter o via mail.