L’intelligenza artificiale crea discriminazione di genere o di razza? Crea disparità tra i Nord ed i Sud del mondo? In che modo individuare principi e regole etiche applicabili su ampia scala a queste nuove tecnologie?
A queste ed altre domande tenta di rispondere il rapporto annuale sullo stato dell’Intelligenza Artificiale dell’istituto AI Now, ente di ricerca della New York University. Pubblicato lo scorso dicembre, il rapporto intende fotografare i vari aspetti e le criticità che le nuove tecnologie di IA pongono nel loro impatto con la società.
Le barriere che non ci sono
Il rapporto ricorda come in “Principles Alone Cannot Guarantee Ethical AI“, il filosofo ed etico Brent Mittelstadt affermi che, a differenza della medicina, l’IA non ha una struttura o norme di governance professionale formale e nessuna definizione e obiettivi concordati per il settore. Soprattutto, a differenza della medicina, l’etica dell’intelligenza artificiale non ha supervisione esterna o protocolli standard per applicare barriere etiche.
Un esempio riportato è il finanziamento da parte di Microsoft a una società israeliana di sorveglianza a mezzo di riconoscimento facciale chiamata AnyVision che ha come obiettivo l’individuazione dei palestinesi in Cisgiordania. AnyVision facilita la sorveglianza, consentendo alle autorità israeliane di identificare i palestinesi e tenere traccia dei loro movimenti nello spazio pubblico. Dati i documentati abusi dei diritti umani in Cisgiordania, insieme alle implicazioni sulle libertà civili associate al riconoscimento facciale in contesti di polizia, questo caso d’uso contraddice direttamente i principi dichiarati da Microsoft su “sorveglianza legale” e “non -discriminazione “, insieme alla promessa dell’azienda di non” implementare la tecnologia di riconoscimento facciale in scenari che possano mettere a rischio le libertà “.
Ancora più sconcertante, ricorda il rapporto, è che AnyVision ha confermato ai giornalisti che la tecnologia di riconoscimento facciale utilizzata era stata verificata da Microsoft in relazione alle proprie norme etiche . Dopo le proteste pubbliche, Microsoft ha riconosciuto che potrebbe esserci un problema e ha assunto l’ex procuratore generale Eric Holder per indagare sull’allineamento tra le azioni di AnyVision ed i propri principi etici.
La difficoltà di definire regole
I problemi etici, soprattutto nelle applicazioni aziendali dell’IA, sono evidenziati in più d’uno dei capitoli della relazione. Il problema, secondo i ricercatori della New York University, è la creazione di sistemi regolamentari omogenei e coordinati.
“Ora ci sono così tante dichiarazioni di politica etica che alcuni gruppi hanno iniziato ad aggregarle in studi indipendenti di etica AI – recita il rapporto – tentando di riassumere e consolidare un campione rappresentativo di dichiarazioni di principi al fine di identificare i principali temi e produrre affermazioni normative condivise sullo stato dell’etica AI. Nonostante l’aumento del contenuto etico dell’IA e le relative meta-analisi, i principi etici e le dichiarazioni raramente si concentrano su come l’etica dell’IA può essere implementata e sulla loro efficacia. Allo stesso modo, tali dichiarazioni etiche sull’AI ignorano ampiamente le domande su come, dove e da chi tali linee guida possano essere rese operative.”
La questione dell’ “Affect recognition”
Uno dei problemi etici principali che sono emersi nel corso del 2019, nel campo dell’Intelligenza Artificiale, è connesso al riconoscimento emozionale, un sottoinsieme delle tecnologie di riconoscimento facciale che afferma di “leggere” le nostre emozioni interiori interpretando le microespressioni sul nostro viso.
Il problema principale è, secondo il report, non solo che può codificare i pregiudizi, ma anche che manca di qualsiasi solida base scientifica che possa confermarne risultati accurati o anche validi: dubbi confermati dal più grande metastudio realizzato, fino ad oggi, sull’argomento. I critici hanno anche notato le somiglianze tra la logica del riconoscimento degli affetti, in cui il valore personale e il carattere sono presumibilmente distinguibili dalle caratteristiche fisiche, e la scienza della razza e la fisiognomica, che era solita sostenere che le differenze biologiche giustificassero la disuguaglianza sociale.
“Nonostante quindi la mancanza di fondamento scientifico – continua lo studio – il riconoscimento emozionale, abilitato dall’intelligenza artificiale, continua ad essere distribuito su larga scala in tutti gli ambienti, dalle aule delle scuole alle interviste di lavoro, informando le determinazioni sensibili su chi è “produttivo” o chi è un “buon lavoratore”, spesso all’insaputa delle persone.”
Autore immagine: sujins (pixabay.com) – licenza CC0
Giornalista e imprenditore da oltre 30 anni nel settore della comunicazione e dell’ICT, sono manager dell’agenzia di comunicazione Interskills srl.
Da sempre interessato alle tematiche del giornalismo e della sua transizione al digitale, scrivo ed ho scritto su diverse testate, tra cui Wired, LaRegioneTicino, Repubblica e L’Espresso, su cui ho un blog dal titolo “Culture Digitali”.
Membro del Comitato scientifico della Fondazione Murialdi per il giornalismo, coordinatore del progetto “Osservatorio sul giornalismo digitale” dell’Ordine dei giornalisti e docente per la formazione dello stesso Ordine .
Presidente Consiglio Direttivo “Media Studies”