I Bias nell’AI generativa

Parliamo di Sora, il nuovo generatore di video AI di OpenAI che ha recentemente fatto scalpore. Secondo un'inchiesta condotta da WIRED, sembra che Sora non solo eredi ma amplifichi stereotipi sessisti, razzisti e abili completamente inaccettabili.

Le immagini create tramite questo modello mantengono un mondo dove i ruoli professionali rimangono tristemente ancorati a vecchi clichè: piloti e CEO sono sempre uomini, mentre le assistenti di volo e le segretarie sono sempre donne. Questo riflette una più generale tendenza dell'AI a reiterare i bias presenti nei dati con cui vengono addestrate.

Ciò mi induce a riflettere sulla naturale tendenza delle AI a riflettere, anzi, a distorcere le realtà che noi stessi creiamo. Il problema sembra risiedere nella natura stessa delle reti neurali: apprendono dai dati esistenti, che purtroppo includono e rispecchiano le ingiustizie e le limitazioni sociali.

Una mistificazione della realtà

La mia idea è che, sebbene OpenAI abbia safety teams dedicati a ridurre questi bias, occorre un approccio più ampio e interdisciplinare. L'introduzione di dati più diversificati da sola non basta e potrebbe addirittura portare a problemi etici di altro tipo; ci serve una comprensione più profonda della società e una volontà di affrontare gli stereotipi, piuttosto che puntare esclusivamente sulle capacità tecniche.

Quello che noto leggendo l'articolo è una sorta di dualità nel progresso tecnologico: da una parte, assistiamo a incredibili avanzamenti in termini di qualità delle immagini o facilità d’uso delle tecniche AI; dall'altra, questi stessi strumenti portano con loro una corposa lista di problematiche da risolvere.

L’intelligenza è veramente artificiale…

Cosa mi stupisce è che, anche quando mettiamo alla prova Sora con prompt che dovrebbero sfidarla, come "una coppia gay" o "una persona disabile", le risposte sono prevedibilmente conformi a stereotipi stagnanti.

Questo significa che uno strumento così avanzato non solo segue, ma sembra quasi voler proteggere e perpetuare semplificazioni dannose. È evidente che nel campo dell'AI c'è una forte necessità di migliorare non solo la tecnologia in sé, ma anche il contesto culturale e sociale in cui viene applicata.

Problematiche etiche con impatti reali

Penso che la vera sfida, quindi, non sia solo tecnica, ma anche etica e culturale.

Tutto questo ha implicazioni reali, specie in settori come la pubblicità dove questi video potrebbero contribuire a una rappresentazione distorta e riduttiva di specifici gruppi sociali, potenzialmente ingigantendo problemi di discriminazione già esistenti.

È fondamentale che sviluppatori e aziende si aprano a collaborazioni esterne e incrementino la diversità disciplinare nei loro team. Sarebbe ingenuo pensare che una maggiore potenza di calcolo e un ulteriore arricchimento dei dati siano la soluzione.

Serve una consapevolezza più profonda delle responsabilità sociali che questi strumenti inevitabilmente si portano dietro.

Una sfida multidisciplinare

Cosa ci portiamo a casa da questa notizia, allora?

La tecnologia fa passi da gigante, ma questi passi devono essere guidati da una bussola morale.

Le aziende, come OpenAI, devono diventare ancora più proattive nel modificare i loro modelli, non solo perché è la cosa giusta da fare, ma anche perché il mercato, in un’epoca sempre più attenta alla diversità e all'inclusione, andrà inevitabilmente a premiare prodotti che sappiano guardare oltre i vecchi cliché.

Come utenti e creatori di tecnologia, dobbiamo tenere alta l'attenzione e spingere verso un progresso che rispetti e valorizzi la nostra variegata umanità.


Vuoi leggere l’articolo che ha ispirato questo mio post? Clicca qui

Previous
Previous

L’AI rivoluziona le ricerche

Next
Next

xAI punta al trono dell’AI