Nello scorso numero abbiamo parlato degli aspetti informatici e social del confirmation bias, ovvero dell’atteggiamento, tipico della natura umana, che ci porta a confermare un’ipotesi tramite prove a favore, piuttosto che cercare di prendere in considerazione evidenze contrarie. Nei social ma anche nei motori di ricerca tale meccanismo naturalmente può comportare dei gravi pericoli rispetto alla garanzia di una corretta informazione. Al prof. Marco Montali chiediamo se esiste un’are di ricerca informatica che si occupa della differenziazione nei contenuti che vengono proposti agli utenti sia dei social che nei motori di ricerca.
L’area di ricerca esiste eccome, d’altronde non è detto infatti che tutti gli utenti del web vogliano leggere solo opinioni simili alle loro. Ci sono infatti molte persone che vogliono avere un panorama più ampio e conoscere anche pareri discordanti. Ci sono dei ricercatori allora che, per esempio, lavorano su come differenziare il ranking dei risultati, una volta che cerchiamo qualcosa nei motori di ricerca. Nei social network però lo scopo delle piattaforme non è quello che le persone siano informate, ma piuttosto che stiano lì. E allora ci sono altri filoni di ricerca – dai quali io personalmente mi dissocio – che studiano invece come promuovere dipendenza e consumo. Il concetto è: se ti faccio vedere le cose che non vuoi vedere, magari allora te ne vai più facilmente. In ogni caso anche i social network si possono usare in maniera consapevole, andando a cercare le cose e seguendo una serie di profili, pagine o gruppi “certificati” rispetto a quello che si vuole vedere. Se ci si ferma al feed si è fregati, insomma In ogni caso nei social c’è anche il pericolo che se tu per interesse personale o per curiosità vai a visitare i profili di politici estremi che la vedono in maniera opposta rispetto a te, alla fine corri il rischio di essere profilato dal social network come un sostenitore di quel politico o di quel partito.
In definitiva: oggi nel mondo accademico ci sono esperti di problematiche etiche e morali, che interagiscano con la ricerca in qualche modo orientandola in maniera “umanistica”?
La risposta breve è sì. Quella più lunga dice però che la questione è un po’ più complicata.
A Vienna è stato stilato un manifesto per l’umanesimo digitale. Il documento dice che abbiamo in mano una cosa enorme che ha delle importanti implicazioni sociali, quindi è importante che ognuno si specializzi in un’area, ma ci vuole anche la consapevolezza che se la cosa non viene coordinata c’è il pericolo di causare gravi danni alla società e ai singoli individui. Il filosofo che si occupa di intelligenza artificiale deve avere delle competenze tecniche, altrimenti non può andare nel concreto. Ma lo stesso problema ce l’ha l’ingegnere in senso inverso. In sostanza ci vogliono figure ci si collochino nel mezzo e che consentano di creare dei ponti. E figure di ricerca che si occupino proprio di questi specifici aspetti. Occorre anche uscire dal meccanismo conservativo presente nella ricerca, che normalmente ostacola le attività nelle terre di mezzo, rendendo più difficoltosa la pubblicazione di specifici articoli scientifici.
(continua)