Intelligenza Artificiale Generale

Cosa si intende veramente con Intelligenza Artificiale Generale

Tra i grandi padri dell’Intelligenza Artificiale vi è la convinzione che tra 50 anni circa assisteremo all’avvento dell’Intelligenza Artificiale Generale.

Ma cosa si intende con questo termine?

Nell’immaginario comune una Intelligenza Artificiale Generale (Artificial General Intelligence o AGI) ha le caratteristiche di DAVID, il bambino robot del film “Artificial Intelligence” : ragiona come un essere umano, sente e agisce come un umano. E’ in grado di “simulare” un essere umano in tutto e per tutto al punto da rendersi indistinguibile dagli uomini, diventa “umana”.

Ma è veramente così? La risposta banale, ma non scontata è: assolutamente no.

Come abbiamo già avuto modo di dire tempo addietro (Vedi: Introduzione all’intelligenza artificiale per comuni mortali), una AGI è un sistema il cui scopo non è quello di emulare l’uomo, bensì, attraverso l’emulazione della mente umana, di adattarsi al contesto in cui si trova senza la necessità di essere pre-programmata. Questo permetterebbe ad una macchina di essere completamente autonoma, di apprendere in continuazione e di migliorarsi attraverso l’esperienza.

Nella letteratura scientifica, infatti, si fa sempre riferimento a “humanlike” (simile all’uomo) e non semplicemente “human” (umano). L’utilizzo del suffisso “like” (simile) è voluto, non casuale. Nessun ricercatore, ad oggi, si sogna di ricreare la mente umana in formato digitale. Ciò che si sta studiando è, da un lato, l’utilizzo delle attuali conoscenze sulla mente umana per rendere maggiormente autonome le macchine; dall’altro, attraverso il tentativo di simulare il funzionamento, di capire come funziona la nostra mente.

Quindi come si farà a capire quando sarà raggiunto il livello AGI ?

In realtà nessuno lo sa con precisione per due ordini di motivi:

  1.  non si è raggiunto un accordo sulla definizione di intelligenza;
  2.  le misurazioni sono fatte sulle prestazioni dell’applicazione ed in particolare sulla precisione. Ad esempio si misura quante volte un algoritmo fa previsioni corrette (accuratezza); si misura il costo di elaborazione in termini di tempo e risorse. Si applicano, in generale, parametri funzionali.

Ancora oggi si fa riferimento al Test di Turing, nelle sue svariate forme, per misurare l’evoluzione delle macchine. Tuttavia per molti studiosi non è sufficientemente preciso poiché, per sua stessa natura, il test misura solo la capacità della macchina di sembrare umana, ma non effettivamente la capacità di ragionare ed elaborare un proprio pensiero.

Per fare un esempio. Un chatbot potrebbe essere in grado di rispondere a tono alle nostre domande ma queste risposte, molto spesso, si baserebbero solo su un calcolo delle probabilità e sulla selezione della struttura sintattica più appropriata sulla base della domanda posta. Apparirebbe “umano”, ma probabilmente non avrebbe capito di cosa stiamo parlando.

Diversa è, invece, la capacità di comprensione del significato e la possibilità di applicare quella conoscenza ad altri contesti. Significa che la macchina deve essere in grado di astrarre i principi generali e saperli applicare anche in contesti completamente differenti, quando necessario.

Ancora un esempio per chiarire (mi perdonino gli esperti per l’eccessiva semplificazione).  Noi sappiamo che per cucinare la pasta dobbiamo far bollire l’acqua in pentola. Sappiamo, anche, che per preparare il caffè è necessario far bollire l’acqua nella caffettiera. L’atto del far bollire l’acqua è una conoscenza generale che si applica in due contesti diversi. Banalizzando all’estremo, i sistemi attuali, soprattutto quelli applicati a livello industriale, o sanno cucinare la pasta o sanno preparare il caffè perchè vengono addestrati per singole operazioni (AI debole o Artificial Narrow Intelligence).  Non sanno ancora capire da sole che l’atto di far bollire l’acqua è il medesimo e che, un domani, potrebbero applicarlo per preparare il tè.

Quindi siamo anni luce dall’avvento dell’AGI?

Sì e no. Sì, nel senso che a livello applicativo probabilmente per molti anni ancora non vedremo dei sistemi completamente autonomi. No, perché a livello di ricerca si stanno facendo notevoli passi verso la creazione di piattaforme per la creazione di agenti humanlike. 

Un aspetto molto interessante è l’attenzione crescente da parte dei ricercatori di rendere le macchine in grado non solo di apprendere continuamente, ragionare e prendere decisioni in contesti diversi ma anche di utilizzate l’esperienza acquisita (e quindi di dotarle di memoria) e di spiegare il perché hanno preso queste decisioni e, quindi, di dotarle di “consapevolezza”. Questa consapevolezza, tuttavia, non sarà frutto di programmazione esplicita ma emergerà dal processo di ragionamento introspettivo.

Fantascienza? Assolutamente no. Dagli anni 80 la ricerca si sta muovendo in questa direzione attraverso la realizzazione di architetture cognitive che, tuttavia, erano state parzialmente abbandonate quando l’IA si è concentrata più sullo sviluppo di singoli algoritmi. Negli ultimi 5 anni, tuttavia, la ricerca ha ripreso in modo intenso e a breve potremo vedere i primi risultati.

RIASSUMENDO

  • una AGI non ha nulla a che vedere con Terminator o il film di Spielberg, Artificial Intelligence
  • una AGI utilizza modelli di ragionamento simili (ma non identici) a quelli umani
  • una AGI è in grado di apprendere non solo dai dati, ma anche dall’esperienza
  • una AGI è in grado di astratte concetti e applicarli a nuovi contesti
  • una AGI è in grado di spiegare il proprio ragionamento e il perchè delle sue scelte

Published by

Simone Favaro

Techno and humanist enthusiast. I'm in the technology marketing sector. I'm even the author of a book about on-line business networking.

What do you think about?