Índice de conteúdo
Um painel proposto na UNESCO em 2021 sustentou como premissa que “para ser inteligente, a revolução digital tem que ser inclusiva”. E que se não considerarmos todas as audiências possíveis, estamos falando de uma “revolução “apenas para alguns setores, e a revolução digital e a inteligência artificial tem como propósito facilitar e agilizar processos para todas as pessoas que interagem no ecossistema digital.
A realidade é que há um tempo as marcas começaram a abandonar a ideia de que as audiências são homogêneas, estruturadas e limitadas. Os dias de definir o público-alvo de uma empresa como “homens e mulheres casados de 30 a 50 anos” acabaram. Existe uma realidade: em 2023, sabemos que o estilo de vida, a identidade de gênero, o estado civil e a orientação sexual de cada pessoa usuária podem ser tão diversos como seus nomes e sobrenomes. E sem dúvida, ninguém deveria ficar excluído dos avanços tecnológicos por questões que, simplesmente, compõem a individualidade de cada pessoa.
Como em todas as áreas da tecnologia, é imprescindível considerar esse tema na hora de desenvolver a estratégia conversacional e de treinar com uma perspectiva inclusiva a inteligência artificial encarregada de interagir com nossa audiência. A seguir, iremos aprofundar esse tema e discutiremos algumas estratégias para criar conversas justas e inclusivas.
O que é um viés de gênero e como impacta a era digital?
Por definição, um viés de gênero é uma suposição ou presunção que, deliberadamente, atribui características a favor ou contra a um gênero em específico. Os vieses de gênero geralmente carecem de evidência científica, e na maioria das vezes estão baseados em crenças inconscientes que as pessoas têm sobre os diferentes gêneros, baseando-se em estereótipos socioculturais aprendidos.
A nível comercial, a premissa é simples: as marcas que não se adaptam aos novos códigos, cedo ou tarde saem perdendo. As audiências são cada vez mais exigentes em todos os sentidos: querem respostas mais rápidas, precisas e personalizadas. E uma parte muito importante da personalização é que as marcas não contribuam com a disseminação de estereótipos que possam ser ofensivos ou discriminatórios com qualquer segmento de usuários.
Isto não é tudo: as tendências indicam que os usuários valorizam cada vez o aspecto de inclusão nas marcas que consomem. Prestando cada vez mais atenção na forma como eles se comunicam, mas também aos que eles fazem de portas fechadas. A inclusão não pode ser “uma fachada”: na verdade, isto pode funcionar contra uma empresa. As capacitações de gênero e a inclusão aplicada no dia a dia são tão importantes quanto a comunicação sem viés de gênero.
Viés de gênero na Inteligência Artificial
A inteligência artificial não está isenta de reproduzir viés de gênero. Os motores da IA se nutrem de informações externas proporcionadas por empresas, equipes de TI ou diretamente da vasta fonte de conhecimento da própria internet. Isto, na verdade, pode tornar a inteligência artificial ainda mais propensa a reproduzir certos estereótipos, dado que suas fontes de informação, muito provavelmente, também são tendenciosas.
A verdade é que a tecnologia não é imparcial em nenhum campo, e os exemplos são muitos. Em 2020, alguns seguidores do Twitter reclamaram que o aplicativo recortava as imagens para pré-visualização de tweets reproduzindo vieses de gênero e raça e, por exemplo, priorizava a exibição de imagens de pessoas brancas. A empresa acabou reconhecendo, e explicaram que essa visualização prévia era selecionada automaticamente por um algoritmo de IA (claramente tendencioso).
Sem ir mais longe, ChatGPT, a última novidade dentro do mundo de processadores com Inteligência Artificial conversacional, nos oferece um panorama claro disso:
Exemplo 1:
Exemplo 2:
Claro que a ferramenta em si não é responsável pela reprodução de estereótipos de gênero tão marcantes, mas a responsabilidade é da informação com a qual o motor foi treinado.
Artigo relacionado: ChatGPT: Processo de treinamento, vantagens e limitações
Tipos de vieses de gênero
- Tomadores de decisão
Este viés se baseia na premissa de que, quem toma as decisões finais são sempre os homens. Pode ser refletido em uma simples pergunta final como <em>“tem certeza de que deseja cancelar esta compra?”</em>.
- Teto de vidro
Este é o caso do viés relatado pelo ChatGPT na sessão anterior. O teto de vidro pressupõe que os cargos hierarquicamente superiores sempre são ocupados por homens, e os inferiores por mulheres.
- Androcentrismo
Este viés ocorre quando as pesquisas anteriores (seja para carregar dados em um bot, para definir um alvo, para criar uma comunicação em massa, para lançar um produto novo, etc.) estão baseadas exclusivamente em sujeitos de estudo do sexo masculino.
- Capacidades cognitivas e emocionais
Um viés muito comum na hora de ver as representações humanas em marcas. Trata-se da parte suave e emocional de uma empresa representada com uma figura feminina, dando a entender que apenas as mulheres têm a capacidade de demonstrar emoções. Este caso é muito reproduzido em relação às assistentes virtuais: a capacidade para ajudar e acompanhar está intrinsecamente ligada à feminilidade, e os bots são representados como mulheres dispostas e resolutivas. Na próxima seção aprofundaremos mais esse ponto.
Como criar um assistente virtual que não reproduza estereótipos de gênero?
Como mencionamos anteriormente, no mundo dos assistentes virtuais que atuam como a cara visível da marca do atendimento ao cliente de uma marca é bastante frequente encontrarmos a maioria deles sendo representados como mulheres. Claro, isso não parte de uma má intenção deliberada por parte de quem o configura.
Na maioria dos casos, nem ao menos parte de uma decisão consciente atribui ao bot o gênero feminino por estar relacionado à ajuda e à empatia – características historicamente relacionadas ao feminino. A realidade é que a decisão, na maioria dos casos, é simplesmente motivada no nível inconsciente pelas associações culturais e históricas que toda a sociedade tem com o gênero feminino.
Para banir estas associações que não passam de estereótipos, o primeiro passo é torná-las conscientes e revisar todos os aspectos que influenciam sua repetição ao configurar um bot. A seguir apresentamos uma lista de passos a seguir para começar a criar assistentes virtuais inclusivos e com a menor quantidade de viés de gênero possível.
Conhecer o público-alvo
A primeira pergunta importante que deve ser feita para qualquer pessoa ou equipe que configura um bot com IA: quem vai interagir com ele? Entender o público-alvo é essencial para abranger todas as respostas possíveis. Configurar seus modismos na hora de falar, entender com que faixa etária estamos nos comunicando, qual nível de escolarização têm, a que se dedicam, etc.
O mais importante é não assumir que, por ser de determinado setor ou por serem clientes de uma determinada empresa em particular, todos os usuários sejam femininos ou masculinos, ou que todos façam a mesma coisa.
Por exemplo, na hora de configurar um assistente virtual para um spa internacional, evite assumir que todas as usuárias são mulheres, e ofereça a possibilidade de configurar a linguagem do bot para evitar presumir que todo o público-alvo entende o mesmo idioma.
Analisar a equipe que irá configurá-lo
Ao colocar seu bot em funcionamento, é importante prestar atenção em quem o está configurando: é uma equipe diversa com diferentes pontos de vista e pertencentes a grupos sociais diferentes? Se a resposta é afirmativa, o mais provável é que o conteúdo do bot reflete isto. No entanto, caso a resposta seja negativa, podemos estar diante de um assistente virtual com viés de gênero.
Se a equipe que configura o bot for formada integralmente por um grupo homogêneo pertencente ao mesmo segmento social, dificilmente o conteúdo produzido será representativo de outros segmentos de usuários, simplesmente porque a equipe não possui conhecimento aprofundado sobre outras realidades mais diversas.
Idealmente, as equipes são formadas por homens e mulheres de idades e raças diversas, e todos contribuem com informações e revisam o conteúdo para garantir que qualquer tipo de estereótipo não seja reproduzido.
Não assumir o gênero da pessoa interlocutora
Se o bot não tem uma forma de descobrir o gênero da pessoa com quem está falando (ou seja, se não pergunta), é importante não assumir. Para que isso seja feito, a equipe tem a possibilidade de carregar conteúdo de gênero neutro e evitar palavras marcadas com gênero.
Em vez de dizer “Está satisfeito com nosso serviço?”, assumindo que o interlocutor é um homem, pode simplesmente perguntar “Você considera nosso serviço satisfatório?”.
Optar por uma plataforma no-code
Por último, para facilitar a redução de vieses de gênero e implementar com maior facilidade e rapidez todos os passos citados anteriormente, tem uma plataforma conversacional no-code é crucial. Com a implementação de uma plataforma sem código, o conteúdo do motor pode ser alterado e atualizado constantemente por qualquer pessoa da equipe, sem a necessidade de intervenções técnicas ou de programadores. Isso não apenas oferece à empresa o controle total do conteúdo que a plataforma manipula, mas também permite que ela personalize o conteúdo com base nos valores da empresa.
É importante mencionar que nem todas as plataformas impulsionadas por IA são no-code, e nem todas permitem ter controle total sobre o conteúdo oferecido. AgentBot, o chatbot com a IA conversacional da Aivo, oferece aos proprietários de conteúdo o controle total para atualizar constantemente as informações a partir de uma plataforma no-code amigável e fácil de administrar.
Ofereça conversas justas e inclusivas
Como já vimos, os vieses de gênero estão enraizados no inconsciente coletivo e é necessário trabalho e compromisso para começar a bani-los para uma verdadeira revolução digital. Os pontos que mencionamos previamente são pequenos passos para oferecer conversas realmente personalizadas e inclusivas, que não perpetuem a desigualdade e estigmatização.
Se você quiser começar a trabalhar com uma plataforma de IA conversacional no-code, com uma equipe à disposição que te ajudará a oferecer conservas inclusivas, não hesite em entrar em contato.