Quando você lê a palavra girassol, no que você pensa? Provavelmente, essa flor lhe traz associações agradáveis. Da mesma forma, a palavra metralhadora deve lhe trazer conotações desagradáveis. Três pesquisadores americanos mostraram que essas associações semânticas também acontecem quando se “ensinam” línguas a máquinas (inteligência artificial) – inclusive em contextos de estereótipos e preconceito.

Esses cientistas criaram um modelo computacional que produz testes estatísticos nas palavras de textos escritos. Eles aplicaram esses testes a um banco de dados enorme chamado Common Crawl, que contém textos provenientes de inúmeros sites da internet.

Esse tipo de inteligência artificial mostrou as mesmas associações de palavras que já tinham sido provadas que havia em humanos. Por exemplo, flores são associadas a pensamentos muito mais prazerosos do que insetos, e instrumentos musicais são mais prazerosos do que armas. Até aqui, tudo parece normal, certo?

O problema começa quando essas associações também envolvem preconceitos. Por exemplo, esse modelo estatístico mostrou que nomes de norte-americanos descendentes de europeus tinham mais associações prazerosas do que nomes de norte-americanos descendentes de africanos. Na verdade, esse viés confirma uma pesquisa feita há alguns anos por outros pesquisadores que mostraram que pessoas com nomes europeus tinham 50% mais chance de serem chamados para uma entrevista de emprego do que pessoas com nomes afrodescendentes, até mesmo quando o currículo delas era idêntico.

Outras associações possivelmente problemáticas que eles encontraram foi entre palavras femininas como mulher e menina a palavras ligadas à família, em vez de carreira – o que não acontecia com palavras masculinas. As palavras femininas também eram mais associadas a artes do que a matemática e a ciência.

Esse estudo nos ajuda a pensar: será que os preconceitos e os estereótipos que nós temos na nossa cultura são transmitidos pelo jeito como nós falamos? Será que isso tem influências no nosso modo de agir?

Além disso, o modelo estatístico que esses cientistas criaram também é uma ótima ferramenta para se analisar textos produzidos por várias pessoas e identificar possíveis atos de discriminação.

Como eles mostraram que esses vieses também são “aprendidos” por inteligência artificial, essa pesquisa é um ótimo aviso para quem trabalha com essa área: as máquinas que nós estamos criando estão reproduzindo os nossos preconceitos? Por exemplo, se uma empresa usa tecnologias que aprendem com inteligência artificial para fazer a triagem dos currículos de candidatos a um emprego, será que essa tecnologia está apenas reforçando práticas de discriminação? Não podemos deixar de pensar nessas questões enquanto as tecnologias de inteligência artificial não param de avançar.

Thomaz Offrede

Referência

Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automotically from language corpora contain human-like biases. Science, pp. 183-186. doi:10.1126/science.aal4230

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.