Cinquanta sfumature di gaming
Senza donne e persone di colore nei team di ricerca, lo sviluppo dell'intelligenza artificiale nei videogame è destinato a frenare. Il rischio è trasferire nei giochi un universo privo di diversità, alimentando modelli di violenza e discriminazione.
L’impatto dell’intelligenza artificiale nei videogiochi, da sempre importante, potrebbe essere, in un futuro non lontano, ridimensionato dall’assenza di donne e persone di colore nei team di ricerca. Il tema è stato affrontato di recente dal Guardian che attraverso le testimonianze di alcuni ingegneri ha scavato alle origini del problema. L’evoluzione dell’Intelligenza artificiale, secondo gli esperti, sarebbe ancora ben distante dall’aver mostrato tutto il suo potenziale, ma contemporaneamente limitata nel farlo da un forte problema di inclusione. Una ricerca pubblicata dalla New York University nel 2019 aveva rilevato che l’80 per cento dei professori di intelligenza artificiale invitati ai principali eventi erano di sesso maschile. Non va meglio se si restringe il campo ai ricercatori di IA per Facebook (solo il 15 per cento erano donne) o Google, dove si scende si scende su percentuali intorno al 10. Pari al 2,5 la percentuale di impiegati di colore in Google, al 4 per cento su Facebook.
Intelligenza artificiale, le risorse di un team diversificato
«Un team diversificato consentirebbe la fusione di più punti di vista e creerebbe possibilità per un risultato e un prodotto più rappresentativi», ha affermato Uma Jayaram, direttrice generale di SEED, la squadra di innovazione e ricerca applicata di Electronic Arts. «Il videogioco è un’estensione del nostro mondo fisico, per questo iniziare a concepire la diversità sarebbe una grande opportunità». Le ha fatto eco Jimmy Bischoff, fra i vertici di Xbox Game Studios: «Vogliamo costruire giochi a cui tutti vogliano giocare e con cui tutti possano relazionarsi, quindi abbiamo bisogno di persone che possano rappresentare tutti i nostri giocatori».
I rischi di un’intelligenza artificiale poco inclusiva
Un’inversione di tendenza da attuare al più presto, anche per evitare che, come ritiene il Guardian, l’espansione dell’intelligenza artificiale si porti dietro una serie di spiacevoli risvolti della medaglia. Eventuali pregiudizi di genere e razza, infatti, potrebbero alimentarsi senza controllo negli algoritmi, producendo risultati che replichino gli squilibri presenti nel mondo reale. «L’Intelligenza artificiale ricopre un ruolo fondamentale all’interno di un gioco», ha affermato il ricercatore informatico e produttore Michael Cook. «Controlla le relazioni fra personaggi, crea culture e religioni, architetta mosse politiche. Se non controllata, ha un enorme capacità di nuocere». Ne deriva che solo l’inserimento di rappresentanti di ogni etnia, religione e sesso potrebbe consentire all’IA di apprendere ogni sfaccettatura della realtà e replicarla senza rischiare di offendere nessuno.
Videogiochi, addio al sistema conflittuale
«L’industria dei giochi si è concentrata su un ristretto sottoinsieme della psicologia umana per diversi anni», ha detto Brie Code, direttrice dello studio Tru-Luv. «Una forza lavoro diversificata può dare vita a un’esperienza più ampia, fatta di più compassione, più risonanza emotiva, più intuizione. Vedremo così nuove forme di gioco che sfruttano sentimenti di creatività, amore e gioia più che trionfo o dominio».
Un altro ostacolo da superare infatti è quello di intendere il videogioco come semplice trasposizione virtuale di un sistema conflittuale, basato sulla presenza di nemici e alleati. In questo campo, interessante è lo studio di Mitu Khandaker, coder e professoressa della New York University, realizzato con la tecnologa Latoya Peterson per creare giochi di narrativa sociale. Il loro team sta attualmente lavorando a Insecure: The Come Up Game, una simulazione di vita per smartphone che esplora il mondo delle relazioni. Altro esperimento di integrazione per evitare che il mondo dei videogame e l’apporto dell’intelligenza artificiale possa arrestarsi. O peggio, prendere derive pericolose.