Falsi positivi, IA e incidenti. Riflessione sui limiti dell’intelligenza artificiale

PREMESSA. A marzo del 2018 una macchina a guida autonoma di UBER provocò la morte di un passante. Un articolo di Paolo Benanti ci aiuta a fare luce su quanto è accaduto, mostrando come l’incidente non sia avvenuto per un errore di progettazione, ma per qualcosa di molto più profondo che riguarda una questione chiave di tutto il settore e, più in generale, riguarda i limiti intrinseci di ogni progetto di Intelligenza Artificiale.

Ecco in sintesi quanto scrive Paolo Benanti nell’articolo: “Falsi positivi e guida autonoma: vista, visione o percezione?”

UN PO’ DI STORIA. In medicina i falsi positivi sono errori costosi, spaventosi e persino dolorosi. Normalmente in qualunque ambito in cui si presenti una decisione predittiva binaria (vero o falso), un falso positivo indica che è stato erroneamente segnalato come vero (positivo al test) qualcosa che in realtà non lo è. Un esempio in informatica è un antivirus che considera erroneamente dannoso un programma innocuo, generando un falso allarme.

Continua a leggere “Falsi positivi, IA e incidenti. Riflessione sui limiti dell’intelligenza artificiale”