Falsi positivi, IA e incidenti. Riflessione sui limiti dell’intelligenza artificiale

PREMESSA. A marzo del 2018 una macchina a guida autonoma di UBER provocò la morte di un passante. Un articolo di Paolo Benanti ci aiuta a fare luce su quanto è accaduto, mostrando come l’incidente non sia avvenuto per un errore di progettazione, ma per qualcosa di molto più profondo che riguarda una questione chiave di tutto il settore e, più in generale, riguarda i limiti intrinseci di ogni progetto di Intelligenza Artificiale.

Ecco in sintesi quanto scrive Paolo Benanti nell’articolo: “Falsi positivi e guida autonoma: vista, visione o percezione?”

UN PO’ DI STORIA. In medicina i falsi positivi sono errori costosi, spaventosi e persino dolorosi. Normalmente in qualunque ambito in cui si presenti una decisione predittiva binaria (vero o falso), un falso positivo indica che è stato erroneamente segnalato come vero (positivo al test) qualcosa che in realtà non lo è. Un esempio in informatica è un antivirus che considera erroneamente dannoso un programma innocuo, generando un falso allarme.

Continua a leggere “Falsi positivi, IA e incidenti. Riflessione sui limiti dell’intelligenza artificiale”

Qualcosa di stupidamente intelligente

Ogni giorno computer e robot riescono a compiere nuove attività, in modo sempre più veloce e più affidabile sostituendo le persone anche in attività intellettuali e impiegatizie.

Secondo uno studio della McKinsey del 2017 il 49% dei lavori attualmente svolti da persone fisiche potranno essere automatizzati, comprese professioni insospettabili come contabili, legali, cuochi, chirurghi.

Possiamo quindi, dire che l’intelligenza artificiale ha raggiunto quella umana o addirittura che l’ha superata?

Continua a leggere “Qualcosa di stupidamente intelligente”

%d blogger hanno fatto clic su Mi Piace per questo: