Ne avevamo parlato già su queste pagine, ma il tema delle frontiere e soprattutto dei pericoli dell’intelligenza artificiale nelle ultime settimane è diventato ancor più di strettissima attualità. Torniamo allora ad occuparcene, sempre con il supporto del prof. Marco Montali al quale chiediamo quali sono i principali quesiti che gli vengono posti a questo proposito nell’ambito degli incontri pubblici sul tema, che vedono sempre più protagonista il grande pubblico, al di là degli addetti ai lavori.
C’è molta curiosità sul funzionamento di queste tecnologie. La prima cosa che noi accademici cerchiamo di spiegare è che non esiste una sola intelligenza artificiale. Esistono infatti in particolare due grandi famiglie. La prima è quella del ragionamento automatico in cui siamo noi a dare la conoscenza alla macchina e poi lei ragiona sulle regole ricevute. La seconda è quella dell’apprendimento automatico, in cui io non fornisco le regole, ma solo degli esempi e dei dati che vengono automaticamente digeriti dall’algoritmo, che dunque in qualche modo impara le regole in modo implicito. Sembra solo una questione tecnica ma in realtà tra l’uno e l’altro concetto cambia davvero tutto. Se io per esempio ho un chatbot (software progettato per simulare una conversazione con un essere umano) che funziona con delle regole prestabilite, quando io gli chiedo una cosa lui mi risponde sulla base di quelle regole. Se invece io ho Chatgpt che ha appreso delle regole implicite su come generare il testo – “digerendosi” tutta la biblioteca di Babilonia che abbiamo sul web – come risultato mi ritrovo senz’altro con delle risposte molto sofisticate, però di fatto non so quali regole il sistema sta utilizzando, perché restano “nascoste”.
Il quesito è allora: l’intelligenza artificiale in questo caso sta generando delle informazioni “plausibili” secondo dei parametri statistici oppure va a prendere queste informazioni da un’altra parte?
Risponderei in due fasi. Per prima cosa: focalizziamoci su ChatGPT nella versione nuda e cruda che si può utilizzare sul sito di openai. In questo contesto, ricordiamo che GPT è un acronimo. “G” sta per “generativo” (a indicare che genera del testo mai prodotto), “P” sta per “pretrained” ovvero che la fase in cui lui ha digerito i testi è fatta e finita e non vengono più aggiunti altri testi. “T” invece sta per “trasformer”, che è l’architettura di rete neurale che il programma utilizza per l’apprendimento. La “P” qui indica proprio che il chatbot non va a recuperare informazioni in tempo reale da nessuna fonte, ma utilizza in modo statistico i testi che si è “predigerito”, senza quindi nessuna garanzia di correttezza. Se sappiamo questo allora non ci può stupire il fatto che il sistema possa generare informazioni false. O, meglio, plausibili ma non necessariamente vere, come detto.
C’è però una “seconda fase”: ChatGPT viene sempre più spesso mescolato con altre tecnologie, rendendo sempre più difficile capire cosa stia davvero succedendo dietro le quinte. Un esempio per tutti: la versione di ChatGPT (o, meglio, l’ulteriore evoluzione chiamata GPT-4) che è integrata in Bing, integra in un unico software le capacità conversazionali di GPT-4 con quelle di recupero di informazioni dal web fornite da Bing. La correttezza fattuale di quello che viene prodotto cambia qui, e di molto.