Por Claudia Maldonado
Quando um algoritmo falha, você perde talento, clientes e dinheiro. Não é “pauta social”; é risco, produto e lucro. Evidências ligam diversidade na liderança a mais inovação e melhor desempenho (BCG, 2018; McKinsey, 2020/2023).
O caso Amazon, em poucas linhas. Entre 2014 e 2017, a Amazon testou uma IA que ranqueava currículos de 1 a 5 estrelas. Treinada com históricos majoritariamente masculinos, a ferramenta passou a rebaixar sinais ligados a mulheres (como menções a clubes femininos e faculdades só para mulheres). A empresa tentou corrigir, não confiou que o viés não voltaria e desligou o projeto (Reuters, 2018).
Não é caso isolado. Em visão computacional, sistemas comerciais erraram até 34,7% para mulheres de pele escura e 0,8% para homens de pele clara — falha de engenharia que vira falha de produto e de receita (Buolamwini & Gebru, 2018).
A maré regulatória (EUA/UE). Nos EUA, a EEOC aplica a “regra dos 4/5” à seleção com IA: se a taxa de aprovação de um grupo for <80% da do grupo de referência, há sinal de impacto adverso — é preciso medir, corrigir e documentar (EEOC, 2023; 29 CFR 1607). Na União Europeia, o AI Act classifica IA para emprego/contratação como “alto risco” e exige gestão de risco, governança de dados, documentação e supervisão humana (UE, 2024). A Justiça já reagiu: em 2024, um juiz na Califórnia permitiu avançar ação coletiva por viés algorítmico contra um fornecedor de software de RH (Reuters, 2024).
Regulação no Brasil (resumo). A LGPD garante ao cidadão o direito de pedir revisão de decisões só por algoritmos (art. 20) e é fiscalizada pela ANPD. A autoridade já possui regra de sanções (Res. 4/2023) e norma para comunicar incidentes de segurança (Res. 15/2024). O marco de IA (PL 2.338/2023) foi aprovado no Senado e tramita na Câmara em Comissão Especial, com foco em gestão de risco, governança e transparência proporcionais ao risco. Gargalo: falta um padrão técnico mínimo (ex.: um teste nacional obrigatório de viés para sistemas de alto risco, como recrutamento). Hoje cada empresa mede de um jeito, o que dificulta comparar e fiscalizar; a ANPD segue normatizando.
Por que colocar o feminino no centro melhora o resultado?
Porque muda o radar de mercado e reduz “pontos cegos”. Empresas com liderança mais diversa reportam +19 p.p. de receita de inovação e margens EBIT superiores (BCG, 2018), e têm maior probabilidade de lucratividade acima da média (McKinsey, 2020/2023).
 

 
3 passos práticos (sem enrolação)
- Meça impacto adverso (regra dos 4/5) por sexo/raça/idade/território; pause/corrija/documente (EEOC, 2023; 29 CFR 1607).
- Governe como alto risco: gestão de risco, trilha de auditoria, governança de dados e supervisão humana (AI Act).
- Lidere aonde mais retorna: metas de diversidade na alta gestão (BCG; McKinsey).
Em uma linha: IA responsável com o feminino no centro reduz risco, eleva inovação e melhora resultado. Quem entende isso chega antes e chega melhor.