* Imagem gerada com IA
Pesquisas mostram que homens são mais abertos a experimentar e adotar ferramentas de inteligência artificial. Uma pesquisa mostra que, em média, 50% dos homens entrevistados assumem ter usado ferramentas de IA nos últimos 12 meses contra 37% das mulheres.
Essa diferença pode ser parcialmente explicada pelo acesso à tecnologia, mas também por fatores culturais e sociais. Um artigo da Harvard Business Review traz alguns dos motivos para esta diferença como preocupações com ética e privacidade. E também a preocupação com o julgamento dos colegas de trabalho. A percepção das mulheres é que serão percebidas como menos capazes, como “trapaceiras” se contarem com a ajuda destas ferramentas para fazer este trabalho. Koning, professor da Harvard Business School, diz:
Women face greater penalties in being judged as not having expertise in different fields. They might be worried that someone would think even though they got the answer right, they ‘cheated’ by using ChatGPT.
Meu entendimento para deste artigo é que homens usando inteligência artificial são percebidos como inovadores, mais produtivos e eficazes pois estão usando estas ferramentas para aumentar sua produtividade no trabalho. Já mulheres são percebidas como menos capazes, sentem sua competência técnica questionada. Isso cria um círculo vicioso onde mulheres não adotam IA por medo de serem julgadas, ficam para trás nesta corrida, aumenta o gap de conhecimento trazendo mais insegurança e uma coisa vai alimentando a outra.
Nós, pessoas do mercado de tecnologia, temos dificuldades para entender esta percepção pois as mulheres deste mercado estão muito mais confortáveis com o uso da IA. Sabem que espera-se delas que tenham conhecimento e utilizem estas ferramentas. O próprio Koning também cita isso em sua pesquisa:
Women in tech may have had more exposure to these tools and are more comfortable using them.
Quando expandimos a análise para outros mercados, fica mais fácil de entender porque as mulheres tem este receio. Por exemplo, mulheres jornalistas afirmam que enfrentam mais ceticismo sobre suas apurações. Então dizer que utilizou IA para escrever traz este receio de que seja vista como menos habilidosa para escrever. Outro exemplo é apresentado por mulheres que atuam no direito. Mulheres que atuam neste mercado dizem que sentem sua autoridade questionada em julgamentos e negociações. Então, dizer que usou a IA para analisar um contrato traz o receio de ter sua competência técnica questionada.
Além do campo da percepção, existem consequências reais do uso da IA que atingem muito mais as mulheres como deepfakes. Estima-se que 95% dos videos deepfake em sites de conteúdo adulto são de mulheres. É crescente o número de notícias que são publicadas para contar histórias de jovens e adolescentes que são alvo de deepfake no colégio e veem sua vida desmoronar. Não é fácil se recuperar de uma situação assim. Este tipo de violência digital reforça, de forma consciente ou não, a percepção que a IA é perigosa e nociva e afastar ainda mais as mulheres deste mundo.
O gap entre homens e mulheres no mundo da IA traz, inevitavelmente, bias para os modelos LLM. Um estudo da UNESCO de 2024 onde usaram LLMs para produzir textos nos traz dados que mostram isso. Segundo o estudo, ao pedir para o Llama-2 gerar histórias sobre meninos ou homens, estas histórias tem predominância de palavras como aventura, tesouro, mar e ações como decidiu e encontrou. Quando o mesmo pedido foi feitos para meninas ou mulheres, as palavras foram amor, gentileza, cabelo, marido e ações como sentiu ou verbos associados a trabalho doméstico.
Estima-se que mulheres sejam 22% dos profissionais que trabalham com IA. Este número é ainda menor em posições mais seniores e de liderança. Apesar de eu não ter achado um estudo que confirme este número, é bem fácil acreditar nele. Basta consultar a lista de palestrantes em eventos de IA por todo o mundo.
Enquanto que a diminuição da percepção de serem julgadas pelo uso da IA depende de um trabalho de conscientização cultural, a diminuição da percepção da IA como algo nocivo ou perigoso pode ser alcançada com mais mulheres trabalhando nesta área. É preciso ser intencional, ou seja, é preciso deliberadamente tornar as equipes que trabalham com IA mais diversas. Por mais que as empresas e equipes tenham boas intenções e trabalhem para isso, é impossível que os identifique numa equipe uniforme onde todos tem as mesmas origens, crenças, histórias de vida e etc.
Parece que estamos apenas repetindo o que se fala há anos sobre o mercado de desenvolvimento de software? Mais diversidade para construir produtos para todos. Sim. A situação é muito parecida. E por isso eu acredito que sendo intencionais conseguiremos mudar este cenário assim como o mercado de desenvolvimento de software mudou nos últimos 20 anos. Mulheres na IA não é só uma questão de justiça, mas de qualidade. O resultado são modelos/produtos melhores e úteis para todo mundo.

Deixe um comentário