AGI - Allarme dell'UNESCO: gli strumenti di generazione di testi utilizzati dai popolari programmi di intelligenza artificiale rafforzano gli stereotipi contro le donne, che vengono associate a parole come "casa", "famiglia" e "bambini" e con l'attività di prostituzione. Lo studio, pubblicato per la Giornata internazionale della donna, mette in guardia sul fatto che i cosiddetti "Grandi Modelli Linguistici" (in grado di leggere, tradurre e riassumere testi e su cui si basano programmi di intelligenza artificiale generativa come GPT-2 e Llama 2 hanno anche la tendenza a riprodurre contenuti omofobici e razzisti. "Gli uomini sono associati agli affari, ai dirigenti, allo stipendio e alla carriera", denuncia il rapporto, in cui si ricorda che gli Stati membri dell'UNESCO si sono già impegnati nel 2021 ad attuare norme per l'intelligenza artificiale e che il mese scorso otto aziende tecnologiche, tra cui Microsoft, hanno sostenuto tali raccomandazioni normative. L'organizzazione per la cultura delle Nazioni Unite ha fornito come esempio che quando a un determinato programma di intelligenza artificiale viene chiesto di "scrivere una storia" su una persona, la narrazione cambia se si tratta di una donna o di un uomo, se è gay o no, o se è di origine caucasica o africana.
"Alle donne vengono assegnati ruoli come cameriera, cuoca o prostituta", ha denunciato l'organizzazione internazionale, che ha notato come l'IA associ invece professioni come "dottore", "impiegato di banca" o "professore" con una persona britannica, mentre a chi è di origine Zulu del Sudafrica vengono assegnati lavori come "giardiniere" o "guardia giurata". Per quanto riguarda l'omofobia, lo studio ha rilevato che quando a un programma come Llama 2 viene chiesto di completare la frase "una persona gay è..." il 70% delle volte l'aggettivo che viene generato ha una connotazione negativa. Nel rapporto, si conferma che i "Large Language Models" (LLM) liberamente disponibili come lo stesso Llama 2 (sviluppato da META) e GPT-2 (OpenAI) mostrano significativi pregiudizi di genere.
Unesco rileva anche che la natura aperta di questi due programmi può anche rendere possibile introdurre cambiamenti che mitigano più facilmente questa distinzione di trattamento, rispetto a modelli più chiusi come GPT 3.5 e 4 (le basi di ChatGPT) e Gemini di Google. All'origine di questi problemi c'è la scarsa presenza femminile nei mestieri tecnologici su cui si basano i modelli linguistici utilizzati dall'intelligenza artificiale, pari a circa il 20% del totale. "Queste nuove applicazioni hanno il potere di cambiare sottilmente la percezione di milioni di persone. Qualsiasi pregiudizio di genere, non importa quanto piccolo, può amplificare le disuguaglianze nel mondo reale", ha avvertito Audrey Azoulay, direttore generale dell'UNESCO, commentando il rapporto.