Assistentes de voz como Amazon Alexa, Apple Siri, Microsoft Cortana e Google Home estão ajudando a reforçar e espalhar o sexismo, de acordo com um estudo das Nações Unidas.
O estudo da UNESCO com o curioso título: “Eu coraria se pudesse” (esta é a resposta complacente que Apple Siri dá ao receber a insinuação de ser prostituta) afirma que softwares deste tipo perpetuam o estereótipo da mulher servil e submissa mesmo quando maltratada.
“O fato de a maioria das assistentes de voz ter voz feminina e serem percebidas como femininas passa a falsa mensagem de que a mulher é uma ajudante dócil, disponível a qualquer hora com um simples botão ou um “oi” colocado ali.”
"O assistente não tem poder assertivo sobre os comandos dados. Honrar os compromissos e satisfazer os pedidos independentemente do tom ou da hostilidade com que sejam feitos.”
A tendência dos assistentes de voz serem considerados particularmente preocupantes “desviar, ignorar ou dar respostas conciliatórias” quando insultados, reforçam a crença de que as mulheres estão sujeitas a abuso e assédio.
“Empresas como Apple e Amazon, formadas por equipes de engenharia predominantemente masculinas, construíram sistemas de IA que transformam o assistentes de voz em entidades femininas que lidam com abusos flertando de forma passiva e submissa”, o relatório continua.
O estudo da UNESCO sugere que os assistentes digitais devem ser programados para desencorajar insultos sexistas, que as empresas deixem de dotá-los de vozes femininas na base e em qualquer caso forneçam diferentes representações das mulheres nas diversas manifestações da inteligência artificial fornecida a estes dispositivos.
A escolha de dar uma voz feminina padrão é o resultado de uma pesquisa de mercado feita por gigantes da tecnologia, mas o estudo refuta essas conclusões argumentando que a maioria das pessoas prefere uma voz do sexo oposto, não necessariamente feminina.