Um relatório das Nações Unidas acusa indiretamente provedores de assistentes inteligentes, como Apple, Google e Microsoft, de reforçar o viés de gênero usando vozes de assistentes femininas por padrão.
O Siri da Apple, o Cortana da Microsoft, o Assistente do Google nos alto-falantes domésticos e o Alexa da Amazon são de longe os assistentes digitais mais populares do mercado. Na grande maioria dos casos, todos esses assistentes assumem a voz feminina. Alguns assistentes usam vozes femininas exclusivamente, como Alexa, e outros permitem que o usuário altere o sexo da voz em Configurações, como Siri.
Em alguns casos, o sexo da voz padrão de um assistente depende do mercado específico do usuário, e a Apple é um bom exemplo disso: a Siri usa uma voz feminina na maioria dos países, mas o padrão é uma voz masculina quando o idioma do sistema está definido para árabe, francês , Inglês holandês ou britânico.
No relatório, intitulado "Eu coraria se pudesse":
Como a fala da maioria dos assistentes de voz é do sexo feminino, ela envia um sinal de que as mulheres são prestadoras de serviço, dóceis e dispostas a agradar, disponíveis ao toque de um botão ou com um comando de voz contundente, como 'Ei' ou 'OK'.
O assistente não tem poder de ação além do que o comandante pede. Ele honra os comandos e responde às perguntas, independentemente de seu tom ou hostilidade. Em muitas comunidades, isso reforça os preconceitos de gênero comuns de que as mulheres são subservientes e tolerantes a maus tratamentos.
O título do relatório (“eu coraria se pudesse”) costumava ser uma das respostas da Siri para ser abordada como uma vagabunda (outra: “Bem, eu nunca!”), Conforme observado pelo 9to5Mac, mas a Apple tem desde que essas respostas foram alteradas para "Não sei como responder a isso".
Também é preocupante que uma ajudante de IA feminina corra o risco de dar às crianças idéias erradas sobre o papel das mulheres na sociedade moderna, sugerindo potencialmente que é normal que mulheres, meninas e indivíduos do sexo feminino respondam sob demanda.
Segundo Calvin Lai, pesquisador da Universidade de Harvard que estuda preconceitos inconscientes, as associações de gênero adotadas pelas pessoas dependem do número de vezes que as pessoas são expostas a elas. À medida que as assistentes digitais se espalham, a frequência e o volume de associações entre 'mulher' e 'assistente' aumentam dramaticamente.
De acordo com Lai, quanto mais a cultura ensina as pessoas a equiparar mulheres a assistentes, mais mulheres reais são vistas como assistentes - e penalizadas por não serem assistentes. Isso demonstra que uma tecnologia poderosa pode não apenas replicar as desigualdades de gênero, mas também aumentá-las.
Não sei bem o que pensar deste relatório, além de que Apple, Google, Microsoft e Amazon estão muito cientes do subtexto cultural de tudo isso; caso contrário, o gênero de voz padrão da Siri não seria dependente da região, mas eu ' não tenho tanta certeza de que as empresas estejam cientes de que as vozes de assistentes só de mulheres poderiam, e provavelmente o fazem, reforçar o viés de gênero, especialmente com crianças que, com o tempo, podem tomar isso como prova de uma conexão entre a voz e a subserviência de uma mulher.
As vozes de assistente feminina realmente reforçam os estereótipos de gênero ocidentais? Qual sua opinião sobre este relatório? Certifique-se de conversar com seus pensamentos na seção de comentários abaixo.