Alexandria Ocasio-Cortez afirma que algoritmos podem ser racistas. Aqui está porque ela está certa.

  • Rudolf Cole
  • 0
  • 3281
  • 715

Na semana passada, a recém-eleita deputada federal Alexandria Ocasio-Cortez ganhou as manchetes quando disse, como parte do quarto evento anual MLK Now, que as tecnologias e algoritmos de reconhecimento facial "sempre têm essas desigualdades raciais que são traduzidas, porque os algoritmos ainda são feitos por seres humanos, e esses algoritmos ainda estão vinculados a suposições humanas básicas. Eles são apenas automatizados. E suposições automatizadas - se você não corrigir o preconceito, estará apenas automatizando o preconceito. "

Isso significa que algoritmos, que são teoricamente baseados nas verdades objetivas da matemática, podem ser "racistas"? E em caso afirmativo, o que pode ser feito para remover esse preconceito? [As 11 mais belas equações matemáticas]

Acontece que a saída dos algoritmos pode de fato produzir resultados tendenciosos. Cientistas de dados dizem que programas de computador, redes neurais, algoritmos de aprendizado de máquina e inteligência artificial (IA) funcionam porque aprendem como se comportar a partir dos dados que recebem. O software é escrito por humanos, que têm preconceito, e os dados de treinamento também são gerados por humanos que têm preconceito.

Os dois estágios do aprendizado de máquina mostram como esse viés pode se transformar em um processo aparentemente automatizado. No primeiro estágio, o estágio de treinamento, um algoritmo aprende com base em um conjunto de dados ou em certas regras ou restrições. O segundo estágio é o estágio de inferência, no qual um algoritmo aplica o que aprendeu na prática. Este segundo estágio revela as tendências de um algoritmo. Por exemplo, se um algoritmo é treinado com fotos apenas de mulheres com cabelo comprido, ele pensará que qualquer pessoa com cabelo curto é um homem.

O Google foi infamemente atacado em 2015, quando o Google Fotos rotulou os negros como gorilas, provavelmente porque esses eram os únicos seres de pele escura no conjunto de treinamento.

E o preconceito pode se infiltrar por muitos caminhos. "Um erro comum é treinar um algoritmo para fazer previsões com base em decisões anteriores de humanos tendenciosos", disse Sophie Searcy, uma cientista de dados sênior no bootcamp de treinamento em ciência de dados Metis. "Se eu fizer um algoritmo para automatizar decisões anteriormente tomadas por um grupo de agentes de crédito, posso pegar o caminho mais fácil e treinar o algoritmo nas decisões anteriores desses agentes de crédito. Mas então, é claro, se esses agentes de crédito fossem tendenciosos, então o algoritmo que eu construí continuará com essas tendências. "

Searcy citou o exemplo do COMPAS, uma ferramenta preditiva usada em todo o sistema de justiça criminal dos EUA para sentenças, que tenta prever onde o crime ocorrerá. A ProPublica realizou uma análise no COMPAS e descobriu que, após controlar outras explicações estatísticas, a ferramenta superestimou o risco de reincidência para réus negros e subestimou sistematicamente o risco para réus brancos.

Para ajudar a combater tendências algorítmicas, Searcy disse, engenheiros e cientistas de dados deveriam construir conjuntos de dados mais diversificados para novos problemas, bem como tentar entender e mitigar a tendência embutida nos conjuntos de dados existentes.

Em primeiro lugar, disse Ira Cohen, cientista de dados da empresa de análise preditiva Anodot, os engenheiros devem ter um conjunto de treinamento com representação relativamente uniforme de todos os tipos de população se estiverem treinando um algoritmo para identificar atributos étnicos ou de gênero. “É importante representar exemplos suficientes de cada grupo populacional, mesmo que sejam uma minoria na população geral sendo examinada”, disse Cohen. Finalmente, Cohen recomenda verificar se há preconceitos em um conjunto de teste que inclui pessoas de todos esses grupos. "Se, para uma determinada corrida, a precisão for estatisticamente significativamente menor do que as outras categorias, o algoritmo pode ter um viés, e eu avaliaria os dados de treinamento usados ​​para ele", disse Cohen ao LiveScience. Por exemplo, se o algoritmo pode identificar corretamente 900 de 1.000 rostos brancos, mas detecta corretamente apenas 600 de 1.000 rostos asiáticos, então o algoritmo pode ter uma tendência "contra" asiáticos, acrescentou Cohen.

Remover preconceitos pode ser incrivelmente desafiador para IA.

Até mesmo o Google, considerado um precursor da IA ​​comercial, aparentemente não conseguiu encontrar uma solução abrangente para seu problema de gorila a partir de 2015. A Wired descobriu que, em vez de encontrar uma maneira de seus algoritmos distinguirem entre pessoas de cor e gorilas, o Google simplesmente bloqueou seus algoritmos de reconhecimento de imagem identificam gorilas em tudo.

O exemplo do Google é um bom lembrete de que treinar software de IA pode ser um exercício difícil, especialmente quando o software não está sendo testado ou treinado por um representante e um grupo diversificado de pessoas.

  • Inteligência Artificial: Amigável ou Assustadora?
  • Máquinas Superinteligentes: 7 Futuros Robóticos
  • 10 novas habilidades loucas que os robôs adquiriram em 2018

Originalmente publicado em .




Ainda sem comentários

Os artigos mais interessantes sobre segredos e descobertas. Muitas informações úteis sobre tudo
Artigos sobre ciência, espaço, tecnologia, saúde, meio ambiente, cultura e história. Explicando milhares de tópicos para que você saiba como tudo funciona