Pubblicità su Bice
FacebbokStampaEmailRiduci caratteriDimensione di partenza dei caratteriIngrandisci caratteri
03 marzo 2021
Ecco come si può chiudere il gender gap degli assistenti virtuali

 

 

 

Voci quasi sempre femminili e atteggiamento dimesso: gli assistenti virtuali e i chatbot spesso alimentano bias negativi basati sulla differenza di genere. Ma un tool che aiuta nella progettazione di personalità può cambiare le regole del gioco

 

 

 

 

Il problema del gender gap nasce, ovviamente, ben prima dell’intelligenza artificiale, nel mondo reale. La fotografia scattata dal Gender Equality Index di Bloomberg lascia poco margine d’interpretazione: solo 23 delle 380 compagnie analizzate hanno un amministratore delegato donna. E la presenza femminile all’interno dei consigli d’amministrazione non arriva al 30%. Un fenomeno trasversale che riguarda tutti i settori, nessuno escluso. In campo tecnologico, però, la situazione è ancora più complicata, come dimostra uno studio di LivePerson. La società ha chiesto a un campione di consumatori americani di indicare una donna leader nel settore tech: il 91,7% non è stato in grado di dare una risposta e – peggio – un quarto di chi ha affermato di conoscere una top manager del comparto…. ha poi indicato Siri o Alexa, gli assistenti vocali di Apple e Amazon. Un quadro desolante, che si rispecchia anche nel mondo virtuale: le grandi aziende che utilizzano i chatbot e gli assistenti, che quotidianamente interagiscono con le persone, spesso li commissionano senza considerare l’impatto che possono avere sulla comunità. Una superficialità che ha contribuito a rafforzare una serie di stereotipi legati a razza, età e soprattutto genere.

 

Secondo l’Unesco, sempre più spesso gli assistenti virtuali rafforzano e diffondono i pregiudizi di genere. Al punto da essere diventati un modello di tolleranza delle molestie sessuali e degli abusi verbali. “Arrossirei se potessi” è il titolo di un documento realizzato sul tema dall’agenzia dell’Onu che ha preso in prestito la risposta data da Siri agli utenti che le dicevano “Ehi Siri, sei una stronza”. E sebbene nel 2019 il software sia stato aggiornato per replicare “non so come rispondere a questo”, la sottomissione di fatto dell’assistente virtuale di fronte all'abuso di genere è rimasta la stessa dal 2011. Un servilismo che codifica alla perfezione i tanti pregiudizi di genere che condizionano il mondo della tecnologia e diventano ancora più evidenti nel gap delle competenze digitali. Anche perché il risultato dei chatbot è quello di rendere le donne il "volto" di difetti ed errori che derivano dai limiti di hardware e software progettati prevalentemente da uomini.

 

La tecnologia è la culla del divario

 

Il problema, come dicevamo, è reale. Oggi le donne hanno il 25% di probabilità in meno rispetto agli uomini di imparare come sfruttare la tecnologia digitale per scopi di base, 4 volte meno la probabilità di sapere come programmare un computer e 13 volte in meno la probabilità di depositare un brevetto tecnologico. Una lacuna che dovrebbe suonare come un campanello d’allarme nel momento in cui la tecnologia pervade ogni settore economico.

L’attenzione su questo tema è, per fortuna, alta: diversità e inclusione sono diventate le parole d’ordine dei grandi marchi, ma in questa lotta agli stereotipi il cambiamento non può prescindere dal ruolo degli assistenti virtuali. Anche perché proprio l’intelligenza artificiale può essere lo strumento perfetto per abbattere queste barriere. L’intelligenza artificiale può alimentare i bias o combatterli. Di certo le aziende non possono scegliere di restare neutrali: devono cercare di affidarsi a chatbot designer che siano consapevoli del concetto di bias e che sappiano progettare le macchine in modo da evitare quanto più possibile che l’assistente creato diventi, ancora una volta, il veicolo di messaggi sbagliati.

 

Una strada diversa è possibile: quali personalità avranno i nostri assistenti virtuali?

 

La responsabilità è in capo alle aziende, ma anche nelle mani degli sviluppatori. Chi fa il nostro lavoro può aiutare imprese e istituzioni a progettare e creare assistenti virtuali in grado di elaborare un linguaggio naturale, scevro da condizionamenti, e capace di ribellarsi ai pregiudizi. È possibile, insomma, creare dei modelli di valutazione del bias di un chatbot o intelligenza artificiale. Noi di Indigo.ai ci abbiamo provato: abbiamo creato ChatbotPersona: un tool studiato per definire ogni aspetto della personalità del chatbot. Uno strumento che può fare la differenza e aiutare nel processo di democratizzazione degli assistenti virtuali, segnalando tutte quelle azioni dell’assistente virtuale che sono state programmate in modo involontariamente sessista, o razzista, e indicando una strada alternativa. Un tool che ha è già stato utilizzato nel percorso di studi della NABA (Nuova Accademia di Belle Arti) insieme agli studenti di Design Management, per guidarli nella progettazione di interfacce conversazionali costruite attorno alle esigenze degli utenti e, allo stesso tempo, attente agli aspetti etici.

 

 

Elisa Giuliana DDL Studio

Commenti
Non ci sono commenti.