Tutti (o quasi) abbiamo sentito parlare, almeno una volta, delle tre leggi della robotica formulate da Asimov. Queste regole “auree” hanno chiaramente - perlomeno nella visione di Asimov - il ruolo di impalcatura e struttura etica fondamentale entro la quale i robot possono muoversi più o meno liberamente. Quanto sono ancora pertinenti le regole etiche di Asimov, però, nel caso in cui abbiamo a che fare con un tipo di intelligenza artificiale declinata nel nuovo paradigma statistico di machine learning?
Facciamo un esempio a caso: un veicolo a guida autonoma (che ha appreso a guidare tramite machine learning) sta sfrecciando senza controllo per le strade di una città, e all’improvviso si trova di fronte a tre bambini paffuti e felici che attraversano la strada. Il veicolo sa che non farà in tempo a frenare, e ha come uniche opzioni o quella di non fare niente e investire i bambini, o quella di sterzare e investire un tizio che per caso stava sul marciapiede lì vicino. (Per chi propende per salvare i bambini, sappiate che il problema appena descritto è logicamente equivalente al seguente problema: un tizio sano va in ospedale a farsi fare un check-up di routine. Il robo-dottore che lo visita ha al momento tre bambini morenti come pazienti, e ognuno di questi bambini potrebbe salvarsi e rimettersi al 100% se solo potesse ricevere un trapianto di organi. Il robo-dottore si accorge che il tizio ha organi perfettamente compatibili per il trapianto ai bambini. Che fa il robo-dottore? Ammazza il tizio sano e ne trapianta gli organi nei bambini morenti? O non fa niente e lascia morire i bambini?)
Chiaramente questi sono dilemmi etici che anche una banalissima intelligenza non artificiale avrebbe. Il punto qui è: l’intelligenza artificiale, con quali parametri etici e morali si muove? Come impara l’eticità e la moralità? (Queste non sono questioni accademiche e astratte, bensì urgenti e pressanti, dato che l’intelligenza artificiale è già capillare nella nostra società e prende decisioni che hanno riscontri concreti anche importanti nella vita delle persone.) Con il nuovo paradigma statistico di machine learning, spesso nemmeno i programmatori riescono a capire come la macchina arrivi alle decisioni che ha preso: è tutto una gigantesca black box, spesso impenetrabile. Come possiamo insegnare a qualcuno come prendere decisioni se non abbiamo nessun’idea della logica con cui prende le decisioni?
Se una macchina è capace di distinguere la foto di un cane da quella di un gatto, noi siamo portati ad antropomorfizzare la macchina e a pensare che il modo in cui questa ha imparato a discriminare tra cani e gatti sia analogo al nostro. O che se impartiamo linee guida generali alla macchina, questa le interpreterà nel nostro stesso modo. Ma, a volte, l’intelligenza artificiale è molto più creativa e divergente dal modo di pensare umano: si veda ad esempio questo video.
Come fare ad impartire ordini o linee guida alle macchina e sperare che li interpretino nel modo “corretto” (cioè “umano”)? Per fare un esempio scemo: se dicessimo al nostro robot roomba di pulire i pavimenti nel modo più efficiente possibile, nulla vieterebbe al robot roomba di pensare che il modo più efficiente per pulire i pavimenti sia quello di distruggere tutti i nostri mobili e buttarli via, in modo da avere una casa vuota - e dunque molto più facile da pulire che una casa ammobiliata. Il robot roomba avrebbe fatto, in questo caso, esattamente ciò che gli abbiamo ordinato - solo che avrebbe interpretato l’ordine in modo, diciamo, un po’ particolare. E, chiaramente, non basta aggiungere il principio “non distruggermi i mobili” per risolvere la situazione e dormire sonni tranquilli in case pulite. Il problema generale è che l’immaginazione umana è alquanto scarsa, se comparata con le enormi potenzialità dell’intelligenza artificiale: non siamo in grado, a priori, di concepire tutte i possibili comportamenti emergenti delle macchine. Per questo motivo anche l’idea di insegnare alle macchine l’etica in maniera statistica usando esempi concreti è naive, se non pericolosa: non sappiamo se le macchine avranno effettivamente generalizzato dagli esempi visti nello stesso modo in cui noi umani generalizziamo.
—
I link di questa settimana:
La Moral Machine del MIT, con variazioni del “trolley problem” di Philippa Foot applicate nel contesto delle auto che si guidano da sole. “Divertiti” a decidere se è meglio non fare niente e investire tre bambini o se invece è meglio deviare il corso dell’auto e mettere sotto due gatti geriatrici! (Per mi conosce: rip bambini.)
Un articolo (qualcuno direbbe “un po’ catastrofista”) sull’impossibilità teoretica di tenere a bada una superintelligenza artificiale, qualora tale superintelligenza artificiale si palesasse.
Una guida per non-esperti in sette comode parti sul controintuitivo mondo della meccanica quantistica (parte 1 e parte 2 qui), essenziale anche per capire un po’ cosa si cela dietro alla tecnologia dei computer quantistici e per non affidarci completamente al pensiero magico quando abbiamo a che fare con fenomeni quantistici.
Direttamente (e letteralmente) da una puntata di Black Mirror: chatta col tuo caro defunto.
—
NRS è la newsletter di cultura e tecnologia di INUTILE » associazione culturale. A cura di Francesca Balestrieri, Carmine Bussone e Matteo Scandolin. Per conoscere meglio INUTILE e i suoi progetti, visita il nostro sito; se ti piace quello che facciamo, sostienici. Puoi contattare la redazione di NRS via Twitter o via mail.