Assistentes de voz como Amazon Alexa, Apple Siri, Microsoft Cortana e Google Home estão ajudando a reforçar e espalhar o sexismo, de acordo com um estudo das Nações Unidas.
O estudo da UNESCO com um título curioso: "Eu coraria se pudesse" (é a resposta complacente que a Apple Siri dá ao receber a insinuação de ser prostituta) afirma que softwares desse tipo perpetuam o estereótipo da mulher servil e submissa mesmo quando maltratados.
“O fato de a maioria dos assistentes de voz terem vozes femininas e serem percebidas como femininas transmite a falsa mensagem de que a mulher é uma ajudante dócil, disponível a qualquer hora com um simples botão ou “hey” jogado.
"O assistente não tem poder assertivo em relação aos comandos que são dados. Honra os compromissos e satisfaz os pedidos independentemente do tom ou da hostilidade com que são feitos”.
A tendência dos assistentes de voz serem considerados particularmente preocupantes "desviar, ignorar ou dar respostas conciliatórias" quando insultados, reforçam a crença de que as mulheres estão sujeitas a abuso e assédio.
“Empresas como Apple e Amazon, formadas principalmente por equipes de engenharia masculinas, construíram sistemas de IA que transformam assistentes de voz em entidades femininas que se envolvem em abuso por flertar passiva e submissamente”. o relatório continua.
O estudo da UNESCO sugere que os assistentes digitais devem ser programados para desencorajar insultos sexistas, que as empresas deixem de equipá-los na base com vozes femininas e, em todo caso, forneçam diferentes representações das mulheres nas várias manifestações da inteligência artificial fornecida a esses dispositivos.
A escolha de dar uma voz feminina padrão é o resultado de uma pesquisa de mercado feita por gigantes da tecnologia, mas o estudo refuta essas conclusões argumentando que a maioria das pessoas prefere uma voz do sexo oposto, não necessariamente feminina.