Pesquisa da Nature mostra que IA, buscadores e currículos automatizados reproduzem preconceitos históricos contra mulheres maduras no mercado de trabalho.
Por Barbara Luz – de São Paulo
A inteligência artificial, cada vez mais presente em processos seletivos, buscas on-line e produção de conteúdo, não apenas reflete desigualdades históricas como também as aprofunda. É o que revela o estudo “Distorção de idade e gênero em mídias online e grandes modelos linguísticos“, publicado pela revista científica Nature, mostrando que mulheres — especialmente as mais velhas — são sistematicamente retratadas como mais jovens e menos experientes em ambientes digitais.

A pesquisa analisou mais de 1,4 milhão de imagens e vídeos, além de bilhões de palavras usadas no treinamento de modelos de linguagem, e concluiu que plataformas digitais e sistemas de IA distorcem a realidade do mundo do trabalho, favorecendo homens maduros em detrimento das mulheres.
Estereótipos digitais não refletem a realidade
Segundo os pesquisadores Douglas Guilbeault (Stanford), Solène Delecourt (Haas School of Business) e Bhargav Desikan (Oxford), mulheres aparecem como mais jovens que homens em praticamente todas as plataformas analisadas — Google, Wikipédia, Flickr, IMDb e YouTube — inclusive em ocupações de maior prestígio e remuneração.
Esse padrão, porém, não condiz com o que mostram os dados reais. Informações do Censo dos Estados Unidos demonstram que não há diferenças significativas de idade entre homens e mulheres na força de trabalho — e em algumas áreas elas são até mais velhas. Ainda assim, o ambiente digital insiste em associar experiência, autoridade e senioridade ao masculino.
Essa é uma forma de ageísmo de gênero — discriminação combinada por idade e gênero — que afeta principalmente mulheres maduras.
ChatGPT e currículos: o viés automatizado
O estudo também investigou como a IA generativa replica esses estereótipos. Os pesquisadores pediram ao ChatGPT que criasse mais de 34 mil currículos fictícios. O padrão foi claro: currículos com nomes femininos descreviam mulheres como mais jovens e com menos experiência; currículos masculinos apresentavam homens mais velhos e com carreiras mais longas; na avaliação dos próprios currículos, o ChatGPT atribuiu notas mais altas a homens mais velhos, mesmo quando os dados eram equivalentes.
Douglas Guilbeault resume o problema: “Dentro desse processo, há inúmeras oportunidades para que estereótipos se infiltrem.”
Busca por imagens influencia decisões reais
A pesquisa também realizou um experimento com usuários. Pessoas que buscaram imagens de profissões no Google passaram a associar mulheres a idades mais baixas e homens a maior senioridade — o que alterou inclusive suas opiniões sobre quem contratar. Quanto mais prestigiada e melhor remunerada era a ocupação, maior a tendência de os resultados de imagem mostrarem homens mais velhos e experientes. Isso reforça desigualdades históricas e limita o acesso das mulheres a cargos de liderança.
Para Guilbeault, existe uma falsa percepção de que os vieses da IA já estariam resolvidos: “Há uma crença generalizada de que o problema já foi basicamente resolvido. E não foi.” As empresas de tecnologia reconhecem a existência de vieses, mas têm adotado estratégias superficiais, como filtros para bloquear conteúdos explícitos, sem enfrentar as raízes estruturais do problema: bancos de dados desiguais, pouca diversidade e a reprodução automática de padrões históricos de exclusão.
Ao amplificar estereótipos de gênero e idade, a IA legitima desigualdades no mercado de trabalho, penaliza mulheres mais velhas e reforça hierarquias que favorecem homens em posições de poder. A pesquisa pode ser vista aqui.
Barbara Luz, é jornalista.
As opiniões aqui expostas não representam necessariamente a opinião do Correio do Brasil