Qualcosa di stupidamente intelligente

Ogni giorno computer e robot riescono a compiere nuove attività, in modo sempre più veloce e più affidabile sostituendo le persone anche in attività intellettuali e impiegatizie.

Secondo uno studio della McKinsey del 2017 il 49% dei lavori attualmente svolti da persone fisiche potranno essere automatizzati, comprese professioni insospettabili come contabili, legali, cuochi, chirurghi.

Possiamo quindi, dire che l’intelligenza artificiale ha raggiunto quella umana o addirittura che l’ha superata?

Rispondere a questa domanda non è facile perché prima dovremmo sapere definire cos’è l’intelligenza e questo non è affatto banale; gli studiosi, infatti, sono concordi nel sostenere che esistano vari di tipi di intelligenza: logico-matematica, linguistica, emotiva, sociale, relazionale, musicale ecc.; ormai è universalmente riconosciuto che non si può definire l’intelligenza semplicemente in base ai punteggi ottenuti in vari test.

Esiste però un punto fermo sul quale basare alcune considerazioni e riflettere sui limiti attuali dell’intelligenza artificiale: il computer è ancora lontano dal superare il test di Turing. Per capire cos’è il test di Turing riprendo la descrizione data da Floridi nel suo libro:“La quarta rivoluzione”.

Consideriamo Bob (un soggetto umano che pone quesiti), un computer e Alice (un soggetto umano che risponde). Collochiamo questi ultimi in due stanza separate e assicuriamoci che entrambi possano comunicare soltanto via mail (la telescrivente di Turing). Bob può ora porre al computer e ad Alice ogni tipo di quesito.

Se Bob non riesce a individuare correttamente l’identità dei due diversi interlocutori in base alle loro risposte, allora il computer e Alice non sono ovviamente in grado di manifestare un comportamento intelligente sufficientemente differente. Per quanto Bob ne sappia, sono intercambiabili. In tal caso il computer ha superato il test di Turing.

Per ora nessun computer ha mai superato tale test e nemmeno si è avvicinato a conseguire l’annuale premio Loebner, la cosa più vicina al test di Turing.

Nel 2008 Floridi faceva parte della giuria del premio Loebner e sono bastate poche domande per capire che i software realizzati erano ancora molto lontani da qualcosa che potesse essere definito intelligente.

Ecco qualche esempio.

Una persona della giuria avviò la conversazione chiedendo: “Se ci diamo la mano, la mano di chi sto stringendo?”. Un interlocutore, quello umano, immediatamente rispose, in chiave metalinguistica, che la conversazione non avrebbe dovuto fare riferimento a interazioni fisiche. Il computer non riuscì a rispondere alla domanda e parlò di qualcos’altro, un trucco impiegato ma molte macchine sottoposte al test: “Viviamo nell’eterno. Per cui, direi di no. Non crediamo.” Si trattava della solita scappatoia, una fastidiosa strategia sperimentata da decenni.

La seconda domanda non fece che confermare la prima impressione: “Ho in mano una scatola di gioielli, quanti CD posso riporvi?”. Di nuovo l’interlocutore umano offrì una spiegazione, mentre il computer la mancò decisamente.

La terza domanda fu: “Le quattro capitali della Gran Bretagna sono tre, Manchester e Liverpool. Cosa c’è di sbagliato in questa frase?”. Una volta ancora il computer non dette alcuna risposta degna di essere ricordata.

Si potrebbe ribattere che si trattava del 2008 ma la situazione non è migliorata. Nel 2013 ad un test simile la medaglia d’argento, messa in palio nel caso il  programma avesse tratto in inganno due o più giudici, non è mai stata assegnata. La medaglia d’oro – scrive Floridi – è pura immaginazione.

Perché allora i computer, in certi casi, sembrano intelligenti? Quando riescono a funzionare bene?

Il computer batte l’uomo quando c’è un contesto delimitato e le regole sono chiare e definite come nel gioco degli scacchi: un mondo limitato in cui ogni azione può essere definita in modo preciso.

Oppure prendiamo ad esempio i tagliaerba robotici: perché funzionino correttamente occorre predisporre un filo perimetrale che delimiti l’area da tagliare. Occorre, cioè, adattare l’ambiente al robot per essere certi che questo possa operare in esso con successo: per questo, come dice Floridi, sono “stupidamente intelligenti”.

Le vere difficoltà ci sono quando si ha che fare con l’imprevedibilità del mondo dove non c’è un contesto predefinito, dove non c’è nessun “filo perimetrale” che delimita i confini e che aiuta a definire il contesto di riferimento.

Detto in altro termini i computer lavorano, con algoritmi, puramente a livello sintattico, attraverso una serie di regole predefinite dove non entra in gioco il significato.

Al momento sembra esserci una soglia semantica ancora insuperabile tra noi e i computer. Per quanto gli algoritmi siano sofisticati funzionano sulla base di regole che prescindono dal senso e dal significato: nessuno è in grado dire se mai si potrà superare questa barriera, ma al momento questa è una differenza ancora sostanziale tra l’intelligenza umana (qualunque cosa significhi “intelligenza”)  e quella artificiale.

Il regno del significato è ancora dominato solamente dagli umani e ciò ci permette di fare ancora la differenza in tanti lavori.

 

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

w

Connessione a %s...