Um estudo do governo dos EUA divulgado nessa semana concluiu que a tecnologia de reconhecimento facial é menos eficaz em certas etnias como negra e asiática. O estudo do Instituto Nacional de Padrões e Tecnologia (NIST) descobriu que, ao realizar um tipo específico de pesquisa no banco de dados dessas tecnologias, muitos algoritmos de reconhecimento facial identificaram falsamente rostos afro-americanos e asiáticos. Isso aconteceu numa frequência de 10 a 100 vezes maior do que com rostos caucasianos.
Nova ferramenta de IA do Facebook trabalha na contramão do re...
Sistema funciona com vídeos ao vivo ou gravados e suporta altas taxas de frames
O estudo também descobriu que as mulheres afro-americanas têm maior probabilidade de serem identificadas de maneira errada nas correspondências dos algorítimos. Essa falha acaba sendo perigosa à população, já que essa técnica é usada para identificar um suspeito em uma investigação criminal.
O relatório, o NIST testou 189 algoritmos de 99 desenvolvedores, excluindo empresas como a Amazon que não submeteram sua tecnologia para revisão. Mas essa pesquisa foi feita de maneira diferente, já que o NIST estudou algoritmos separados da nuvem e dos dados de treinamento proprietários.
Por exemplo, na análise de IA da startup chinesa SenseTime "altas taxas de falsas correspondências para todas as comparações" foram encontradas. O algoritmo do SenseTime produziu um falso positivo em mais de 10% das vezes ao analisar o rosto de homens da Somália.
Já a Microsoft teve quase 10 vezes mais falsos positivos para mulheres negras do que para homens negros. O algoritmo da empresa mostrou pouco discernimento nas fotos em preto e branco de homens. Depois dos resultados da pesquisa, a Microsoft disse que analisaria o relatório.
A presidente do Comitê de Segurança Interna da Câmara dos EUA, Bennie Thompson, disse que as descobertas sobre a tecnologia "eram piores do que se temia", já que o reconhecimento facial está sendo amplamente implementado por autoridades alfandegárias.
Via: VentureBeat