A maggio scorso, Google ha presentato LaMDA, il suo modello di intelligenza artificiale in grado di sostenere conversazioni autonome con umani. Fra dicembre 2020 e febbraio 2021, la stessa Google aveva licenziato due responsabili del suo AI Ethics team per aver pubblicato un report in cui si dicevano fortemente critici sugli sviluppi del motore di AI e per i risultati che fino a quel momento aveva riportato: gli alti costi della ricerca sui modelli linguistici come quelli ambientali (un singolo calcolo per addestrare un modello aveva lo stesso impatto in termini di CO2 di un volo di linea) e anche i risultati basati su dati non verificabili e ovviamente non liberi da bias e da errori. I risultati, inoltre, contenevano errori di elaborazione e contenuti caratterizzati da elementi quali odio, razzismo e misoginia (
Conseguenze
Conseguenze
Conseguenze
A maggio scorso, Google ha presentato LaMDA, il suo modello di intelligenza artificiale in grado di sostenere conversazioni autonome con umani. Fra dicembre 2020 e febbraio 2021, la stessa Google aveva licenziato due responsabili del suo AI Ethics team per aver pubblicato un report in cui si dicevano fortemente critici sugli sviluppi del motore di AI e per i risultati che fino a quel momento aveva riportato: gli alti costi della ricerca sui modelli linguistici come quelli ambientali (un singolo calcolo per addestrare un modello aveva lo stesso impatto in termini di CO2 di un volo di linea) e anche i risultati basati su dati non verificabili e ovviamente non liberi da bias e da errori. I risultati, inoltre, contenevano errori di elaborazione e contenuti caratterizzati da elementi quali odio, razzismo e misoginia (