Nell’ultimo numero della “Città digitale” ci eravamo lasciati con questo intento: digitare nei traduttori online la coppia di frasi “Dorme e mangia con suo papà. Stira e mangia con suo papà”, per vedere come vengono tradotte in inglese. Il punto, come avrete immaginato, è capire il genere del soggetto: si tratta di un “lui”? O di una “lei”? Non lo sappiamo: il testo è ambiguo. Quello che si riscontra, però, usando questi software, è che in molti casi “decidono” di indicare in un “lui” (“he”) il soggetto della prima frase, e in una “lei” (“she”) il soggetto della seconda. Questo tipo di output è stato spesso commentato parlando dei preconcetti (in inglese, “bias”) degli algoritmi… come se gli algoritmi possano anche solo avere un intento discriminatorio. È su questo punto centrale che termina la nostra serie sugli algoritmi.
Come è possibile che un algoritmo decida autonomamente che chi dorme è uomo, mentre chi stira è donna? La spiegazione è molto semplice, e viene, di nuovo, dai dati. Abbiamo già scritto che questi algoritmi di ultima generazione vengono “allenati” su una vastissima mole di dati, ed è su questa mole di dati che plasmano il proprio comportamento. Se in quei dati, statisticamente, quando si parla di “stirare” si trovano spesso soggetti femminili, l’algoritmo imparerà, implicitamente, a collegare questi due concetti. Non decide, semplicemente si adegua ai dati. La domanda seguente a questo punto è: perché si riscontra questa statistica nei dati? Perché è l’umanità stessa (o meglio, quell’umanità che produce dati per il mondo digitale) ad associare questi due concetti: i testi che parlano di “stirare” spesso si riferiscono a soggetti femminili, questi testi diventano dati per l’apprendimento degli algoritmi, e gli algoritmi ricostruiscono, indirettamente, gli stessi preconcetti (o distribuzioni statistiche che dir si voglia) presenti negli uomini e donne che quei dati li hanno generati. Non sta a noi qui dibattere sull’opportunità o meno di questo collegamento, né sul funzionamento di questi servizi di traduzione (anche se forse basterebbe, per sciogliere il nodo, che l’algoritmo chiedesse all’utente umano, invece di decidere autonomamente…). Ci preme semplicemente sensibilizzare i lettori su questo tema: a chi darete la “colpa” la prossima volta che vi troverete ad aver a che fare con un algoritmo che “non si comporta bene”?
Autore: Marco Montali