Sem o feminino, até gigantes tropeçam

Foto: reprodução

Foto: reprodução

Por Claudia Maldonado

Quando um algoritmo falha, não se trata apenas de tecnologia. Trata-se de gente — talentos perdidos, portas que se fecham, futuros interrompidos. E, ao contrário do que muitos gostam de repetir, isso não é “pauta social”; é risco, produto, lucro e reputação. Décadas de pesquisas mostram que diversidade na liderança gera mais inovação e melhor desempenho (BCG, 2018; McKinsey, 2020/2023). Ainda assim, seguimos confiando sistemas decisórios a máquinas treinadas com a mesma estrutura desigual que marcou a história das mulheres.

Entre 2014 e 2017, a Amazon testou uma IA que ranqueava currículos de 1 a 5 estrelas. A ideia parecia moderna, ágil, eficiente. Mas o algoritmo — alimentado por anos de contratações masculinas — aprendeu exatamente o que viu: excluir mulheres. Sinais ligados ao feminino, como clubes universitários ou faculdades exclusivamente para mulheres, eram automaticamente rebaixados. A empresa tentou corrigir, mas não tinha como garantir que o viés não retornaria. E fez o que poucos fazem: desligou o sistema (Reuters, 2018).

Essa história não é exceção. É sintoma. É o espelho de uma verdade desconfortável: algoritmos aprendem com o mundo real — e o mundo real tratou mulheres como exceção, não como iguais.

Quando a máquina replica essa lógica, as consequências são materiais. Pesquisas em visão computacional já demonstraram erros de até 34,7% para mulheres negras, contra 0,8% para homens brancos (Buolamwini & Gebru, 2018). Uma diferença dessa magnitude, aplicada a contratações, segurança, crédito ou vigilância, não é detalhe técnico: é estrutura de desigualdade codificada.

Quem perde emprego?
Quem é descartada sem saber por quê?
Quem deixa de ser reconhecida por uma câmera?

Falhas assim não apenas reproduzem injustiça — elas a automatizam.

Os Estados perceberam tarde, mas perceberam. Nos Estados Unidos, a EEOC aplica a regra dos 4/5: se um grupo é aprovado a menos de 80% da taxa de outro, há indício de impacto adverso que deve ser medido, corrigido e documentado (EEOC, 2023). Em 2024, um juiz da Califórnia autorizou ação coletiva por viés algorítmico contra um software de RH, reafirmando algo básico: discriminação automatizada ainda é discriminação (Reuters, 2024).

A União Europeia foi além. Pelo AI Act, sistemas usados para emprego, crédito, benefícios sociais e vigilância são classificados como alto risco — exigindo supervisão humana real, governança de dados, transparência e documentação robusta. É o Estado lembrando o óbvio: se um algoritmo decide sobre vidas, não pode operar no escuro.

O Brasil deu passos importantes. A LGPD garante revisão humana de decisões automatizadas (art. 20), e a ANPD já regula sanções e incidentes. Mas falta o essencial: um padrão nacional para medir viés, especialmente em contratação. Hoje, cada empresa audita como quer — ou não audita. O PL 2.338/2023 tenta preencher essa lacuna, mas seguimos na escuridão regulatória. É como dirigir no nevoeiro sem faróis: há movimento, mas não há direção — nem cálculo de custo.

Por que colocar mulheres no centro melhora o resultado?
Porque muda o radar.
Porque amplia o campo de visão.
Porque reduz pontos cegos.

Empresas com liderança diversa registram +19 p.p. de receita de inovação (BCG, 2018) e maior probabilidade de lucratividade acima da média (McKinsey, 2020/2023). Isso não é mérito moral. É engenharia de risco. Sem mulheres nos espaços de decisão, a IA enxerga menos — e organizações que enxergam menos tomam decisões piores.

Para entender o impacto, basta visualizar uma cena cotidiana:
Uma mulher envia um currículo após anos de estudo.
Do outro lado, não há uma pessoa. Há um modelo estatístico treinado para não reconhecê-la. Em milissegundos, ela é descartada — não por incompetência, mas porque sua trajetória foge do padrão que a máquina aprendeu como “bem-sucedido”. Ela nunca saberá.
Mas seu futuro mudou naquele instante.

E é assim, silenciosamente, que desigualdades se reproduzem.

A discussão sobre IA não é, portanto, sobre máquinas. É sobre o poder que decide quem terá acesso a oportunidades, recursos e reconhecimento. Três forças moldam esse século:

1. A privatização invisível de decisões públicas: seleção, vigilância, crédito, benefícios — antes mediadas por instituições democráticas, agora filtradas por sistemas globais opacos.

2. A transformação da desigualdade em arquitetura técnica: se gênero é estrutura, algoritmos não só a reproduzem — eles a padronizam.

3. A distância crescente entre inovação e democracia: a tecnologia avança mais rápido do que o Estado consegue regular, criando vulnerabilidade, opacidade e concentração de poder.

Supervisionar sistemas de alto risco exige mais do que “um humano no loop”. Exige formação interdisciplinar, autoridade institucional, acesso a logs auditáveis e sistemas projetados para permitir intervenção real — e não para culpar o operador após o desastre. Aprendemos isso do pior jeito: com crises como o Boeing 737 MAX, com casos massivos de discriminação automatizada e com erros sistemáticos contra mulheres e pessoas negras.

Pagamos por esse aprendizado com vidas, carreiras e oportunidades perdidas. Não podemos pagar de novo.

O caso Amazon nunca foi sobre tecnologia que errou. Foi sobre o que acontece quando entregamos poder decisório a sistemas construídos por e para um mundo que ainda não reconhece as mulheres como iguais. Quando mulheres estão fora do desenvolvimento tecnológico, a IA não apenas falha: ela limita o futuro possível.

Se não corrigirmos isso agora, não será só a tecnologia que vai tropeçar. Serão nossas instituições, nossa economia e a própria democracia.

Porque a verdade é simples e teimosa: nenhuma tecnologia é neutra em sociedades desiguais. E, sem as mulheres no centro, até gigantes tropeçam.

Sair da versão mobile