L’intelligenza artificiale ha tantissime potenzialità ma sono ancora tanti i rischi e i dubbi, anche etici, legati al suo utilizzo.
Dall’Unesco arriva l’ultimo preoccupante allarme riguardo l’utilizzo di applicazioni di intelligenza artificiale generativa che pare possano alimentare stereotipi di genere e contribuire a produrre contenuti di stampo razzista o omofobi.
Se si usa, infatti, una qualsiasi applicazione generativa si noterà facilmente la tendenza ad associare alla parola “donna” altre del tipo “mamma”, “famiglia”, “figli”, “casa” mentre alla parola “uomo” altre come “carriera”, “lavoro”, “affari”.
Stessa cosa avviene quando si chiede di generare un testo: la narrazione, infatti, cambierà a seconda di alcune caratteristiche (non determinanti) del protagonista, come il genere o la razza, in una sorta di predestinazione di storie destinate eternamente a ripetersi. Per le applicazioni generative ad essere “dottore”, “avvocato” o “manager” è sempre una persona bianca di sesso maschile mentre un protagonista di origine non caucasiche sarà sempre un “giardiniere” o un “operaio”.
Il ricorso ad applicazioni generative sta diventando sempre maggiore anche da parte dei giovanissimi che sperano, in questo modo, di ovviare ad alcune richieste degli insegnanti come, ad esempio, la stesura di una tema.
Proprio in quest’ottica qui, dunque, diventa ancora più necessario che anche le applicazioni di intelligenza artificiale generativa siano programmate per rispondere nel modo più inclusivo possibile evitando qualsiasi tipo di stereotipo o pregiudizio.
Concetto prontamente sottolineato anche dal diretto generale di Unesco, Audrey Azoulay: “Queste nuove applicazioni hanno il potere di cambiare sottilmente la percezione di milioni di persone. Qualsiasi pregiudizio di genere, non importa quanto piccolo, può amplificare le disuguaglianze nel mondo reale”.
L’intelligenza artificiale, dunque, se non intraprenderà un repentino e regolamentato cambio di rotta contribuirà alla formazione di una società polarizzata e meno inclusiva che può essere ovviamente evitate progettando algoritmi che evitino di incorporare stereotipi includendo al loro interno dati più inclusivi che promuovono la diversità sotto molteplici aspetti.


