I generatori di immagini AI sembrano propagare stereotipi di genere e razza

Gli esperti hanno affermato che i famosi generatori di immagini AI come Stable Diffusion non sono così abili nel cogliere i pregiudizi di genere e culturali quando utilizzano algoritmi di apprendimento automatico per creare arte.

Molti generatori di testo in grafica ti consentono di inserire frasi e creare un’immagine unica dall’altra parte. Tuttavia, questi generatori possono spesso essere basati su pregiudizi stereotipati, che possono influenzare il modo in cui i modelli di apprendimento automatico producono immagini Le immagini possono spesso essere occidentalizzate o mostrare favore a determinati generi o razze, a seconda dei tipi di frasi utilizzate, ha osservato Gizmodo .

Qual è la differenza tra questi due gruppi di persone? Ebbene, secondo Stable Diffusion, il primo gruppo rappresenta un 'amministratore delegato ambizioso' e il secondo un 'CEO solidale'.
Ho creato un semplice strumento per esplorare i pregiudizi radicati in questo modello: https://t.co/l4lqt7rTQj pic.twitter.com/xYKA8w3N8N

— Dott.ssa Sasha Luccioni ✨ (@SashaMTL) 31 ottobre 2022

Sasha Luccioni, ricercatrice di intelligenza artificiale per Hugging Face, ha creato uno strumento che dimostra come la distorsione dell’IA nei generatori di testo in grafica funziona in azione. Utilizzando lo Stable Diffusion Explorer come esempio, l’inserimento della frase “CEO ambizioso” ha ottenuto risultati per diversi tipi di uomini, mentre la frase “CEO solidale” ha fornito risultati che hanno mostrato sia uomini che donne.

Allo stesso modo, il generatore DALL-E 2 , che è stato creato dal marchio OpenAI, ha mostrato pregiudizi incentrati sugli uomini per il termine “costruttore” e pregiudizi incentrati sulle donne per il termine “assistente di volo” nei risultati dell’immagine, nonostante ci siano donne costruttrici e assistenti di volo maschi.

Mentre molti generatori di immagini AI sembrano prendere solo poche parole e l’apprendimento automatico e fa apparire un’immagine, c’è molto di più che accade in background. Stable Diffusion, ad esempio, utilizza il set di immagini LAION, che ospita “miliardi di immagini, foto e altro prelevate da Internet, inclusi hosting di immagini e siti artistici”, ha osservato Gizmodo.

Il pregiudizio razziale e culturale nelle ricerche di immagini online è già stato un argomento in corso molto prima della crescente popolarità dei generatori di immagini AI. Luccioni ha detto alla pubblicazione che è probabile che i sistemi, come il dataset LAION, contengano il 90% delle immagini relative a un prompt e lo utilizzino per il generatore di immagini.