L’intelligenza artificiale non è ancora tra noi

Stiamo assistendo ad una nuova ondata di articoli sensazionalistici sul tema dell’intelligenza artificiale generale (in inglese AGI: “ artificial general intelligence”), con cui si descrivono sistemi informatici capaci di mostrare intelligenza a livello umano in campi diversi. Il termine “generale” indica proprio la capacità di questi sistemi di competere con gli umani non su uno specifico compito (come ad esempio giocare a scacchi o a Go, dove i computer sono ormai campioni indiscussi), ma su un qualunque compito che, in termini umani, richiede di esibire una qualche forma di intelligenza. Una delle più complesse palestre per l’AGI è quella del linguaggio naturale. È proprio sul tema del linguaggio naturale (in inglese NLP: “natural language processing”) che si concentrano molti articoli sensazionalistici, principalmente focalizzandosi sul fatto che una recente generazione di algoritmi per reti neurali (in termini tecnici, chiamate “transformer”) mostra incredibili capacità di generazione del testo, anche in risposta a domande formulate da umani. Famosissime ormai sono le reti transformer BERT e GPT-3, ma nei quotidiani di questi giorni l’enfasi è il loro successore LaMDA, di Google, che avrebbe addirittura portato al licenziamento di un ingegnere di Google. Il motivo? L’ingegnere avrebbe violato le politiche di privatezza dell’azienda, dichiarando che LaMDA è a tutti gli effetti una intelligenza senziente. Al di là degli aspetti di marketing e pubblicità che ormai permeano l’intelligenza artificiale, è importante ricordare come funzionano questi sistemi: secondo principi statistici, applicati all’immensa quantità di testi disponibili su web. Vengono infatti allenati su una moltitudine di testi imparando, data una frase incompleta, distribuzioni di probabilità su quale parola successiva aggiungere per continuare la frase in modo compiuto. I risultati sono stupefacenti e in molti casi rendono queste reti capaci di generare testi complessi, di senso compiuto, e diversi da quelli su cui si sono allenate, ma altrettanto spesso li portano a generare testi senza senso. Queste reti falliscono, ad esempio, quando il tema del discorso è quello del “ragionamento di senso comune”. Questo non dovrebbe stupire: imparare distribuzioni di probabilità non ha nulla a che fare con imparare come funziona il mondo che ci circonda e quali leggi lo governano (ad esempio, banalmente, che se un oggetto viene messo in una scatola non può magicamente sparire da essa a meno che non succeda qualcosa). Riconoscere la differenza tra un essere in grado di utilizzare il linguaggio per parlare del mondo, e questi sistemi che sono a tutti gli effetti dei “pappagalli stocastici”, richiede arguzia, mentre superficialmente si può essere in effetti ingannati. Meglio ricordarcelo ancora una volta, in questo mondo di fuochi (più che di intelligenze) artificiali.

Autore: Marco Montali

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *