Le inclinazioni umane non sono ‘bias’. Articolo di Francesco Varanini su ‘Agenda Digitale’, 24 giugno 2022


Bias Is Coded Into Our Technology: lo si sente dire sempre più frequentemente.
Le intelligenza artificiali e gli algoritmi applicati all’educazione, alla medicina, al giornalismo, e ad ogni altro servizio offerte per via digitale ai cittadini sono condizionati da bias: caso di frequente citato è il mancato rispetto dei diritti dei cittadini di colore.
Le tecnologie riproducono il modello di azione ed usano le conoscenze di insegnanti, medici, giornalisti. Di conseguenza, intelligenze artificiali e gli algoritmi replicano i bias degli umani che li creano, e degli umani con le cui conoscenze sono alimentati. Qualcuno cerca di mitigare il problema con l’algorithmic fairness: si può tentare di insegnare ad un algoritmo ad essere equo e giusto, o progettare un algoritmo che corregga altri algoritmi. Ma anche in questo caso la soluzione sarà condizionata dai bias del progettista. Se poi magari si immagina un algoritmo capace di migliorare autonomamente la propria qualità etica, il problema resta presente: dietro la sbandierata qualità etica può nascondersi qualche bias.

Così inizia l’articolo che appare su Agenda Digitale il 24 giugno 2022 con il titolo Le inclinazioni umane non sono ‘errori di sistema’: ecco gli equivoci della cella computer science. L’articolo termina come segue:

Possiamo sempre chiederci: chi ha il diritto di scrivere la tavola del corretto comportamento al quale devono attenersi i cittadini, il lavoratori, gli umani tutti? Chi è tanto saggio, tanto distaccato dai propri immediati interessi, da poter svolgere questo ruolo?
Due comunità professionali si legittimano a vicenda, si offrono l’un l’altra strumenti, condividono percorsi di ricerca e successi. I computer scientist e i tecnici digitali sono debitori degli scienziati cognitivi, e viceversa.
Machine learning e deep learning, i modelli di linguaggio che simulano i linguaggi umani, le tecniche usate nella scrittura di algoritmi, il modo in cui vengono via via evoluti i motori di ricerca, interfacce uomo-macchina e User Experience Design: tutti questi sviluppi della computer science discendono da ricerche di scienze cognitive. Le scienze cognitive, però, non sarebbero nate se non fosse esistita la computer science.
Le due famiglie professionali, così, condividono la responsabilità implicita nel progettare e nel gestire sistemi che tolgono libertà agli esseri umani.
Ma -se mai è possibile stabilire in questo campo un ordinamento- il peso etico più duro grava sulle spalle dei computer scientist e dei tecnici digitali. Essi offrono la metafora senza la quale le scienze cognitive non esisterebbero: la computer machine. Macchina che nasce dal considerare l’essere umano difettoso, bisognoso di modelli esterni, superiori. Così si apre la strada a questa ambigua psicologia secondo la quale le inclinazioni umane errori di sistema.
Meglio evitare, parlando di esseri umani, la parola bias.