Questão 3c754622-b5
Prova:IF Sul - MG 2017
Disciplina:Inglês
Assunto:Interpretação de texto | Reading comprehension

Why does Artificial Intelligence (AI) pick up biases?

AI Picks Up Racial and Gender Biases When Learning from What Humans Write

AI1 picks up racial and gender biases2 when learning language from text, researchers say. Without any supervision, a machine learning algorithm learns to associate female names more with family words than career words, and black names as being more unpleasant than white names.

For a study published today in Science, researchers tested the bias of a common AI model, and then matched the results against a well-known psychological test that measures bias in humans. The team replicated in the algorithm all the psychological biases they tested, according to a study from co-author Aylin Caliskan, a post-doc at Princeton University. Because machine learning algorithms are so common, influencing everything from translation to scanning names on resumes, this research shows that the biases are pervasive, too. 

An algorithm is a set of instructions that humans write to help computers learn. Think of it like a recipe, says Zachary Lipton, an AI researcher at UC San Diego who was not involved in the study. Because algorithms use existing materials — like books or text on the internet — it’s obvious that AI can pick up biases if the materials themselves are biased. (For example, Google Photos tagged black users as gorillas.) We’ve known for a while, for instance, that language algorithms learn to associate the word “man” with “professor” and the word “woman” with “assistant professor.” But this paper is interesting because it incorporates previous work done in psychology on human biases, Lipton says.

For today’s study, Caliskan’s team created a test that resembles the Implicit Association Test (IAT), which is commonly used in psychology to measure how biased people are (though there has been some controversy over its accuracy). In the IAT, subjects are presented with two images — say, a white man and a black man — and words like “pleasant” or “unpleasant.” The IAT calculates how quickly you match up “white man” and “pleasant” versus “black man” and “pleasant,” and vice versa. The idea is that the longer it takes you to match up two concepts, the more trouble you have associating them.

The test developed by the researchers also calculates bias, but instead of measuring “response time”, it measures the mathematical distance between two words. In other words, if there’s a bigger numerical distance between a black name and the concept of “pleasant” than a white name and “pleasant”, the model’s association between the two isn’t as strong. The further apart the words are, the less the algorithm associates them together.

Caliskan’s team then tested their method on one particular algorithm: Global Vectors for Word Representation (GLoVe) from Stanford University. GLoVe basically crawls the web to find data and learns associations between billions of words. The researchers found that, in GLoVe, female words are more associated with arts than with math or science, and black names are seen as more unpleasant than white names. That doesn’t mean there’s anything wrong with the AI system, per se, or how the AI is learning — there’s something wrong with the material.

1AI: Artificial Intelligence
2bias: prejudice; preconception

Disponível em <http://www.theverge.com/>. Acesso em: 18/04/2017.

A
Because it incorporates previous work done in psychology on human biases.
B
Because algorithms use existing materials — like books or texts on the internet — and the materials themselves are biased.
C
Because machine learning algorithms influence everything from translation to scanning names on resumes.
D
Because an algorithm is a set of instructions that humans write to help computers learn.

Gabarito comentado

J
Julia CarvalhoMonitor do Qconcursos

Tema central da questão: O tema principal é como algoritmos de Inteligência Artificial (IA) acabam incorporando vieses (biases) presentes nos textos que “lêem” durante o seu processo de aprendizagem. Essa questão exige que o candidato compreenda o mecanismo de transmissão dos preconceitos implícitos dos dados para os sistemas de IA.

Explicação didática: Viés (bias) em IA ocorre quando sistemas automatizados aprendem e reproduzem padrões preconceituosos dos dados de origem. Os dados de treinamento, como textos, notícias, ou livros, refletem a cultura, linguagem e até os preconceitos humanos (raciais, de gênero, etc). Se um algoritmo aprende a partir de exemplos enviesados, ele tende a reproduzir esse comportamento.

Justificativa da alternativa correta (B): A alternativa B (“Because algorithms use existing materials — like books or texts on the internet — and the materials themselves are biased.”) está correta, pois identifica que os dados usados para treinar a IA já contêm vieses, o que leva a IA a assimilá-los. Esse é o conceito fundamental no estudo de ética em IA e também explorado em materiais didáticos (ex: Artificial Intelligence: A Guide to Intelligent Systems, de Michael Negnevitsky).

O texto menciona explicitamente que o problema não está no algoritmo em si, mas sim no fato de que “algorithms use existing materials… and the materials themselves are biased.” Essa relação de causa e efeito é crucial para a resolução da questão.

Análise das alternativas incorretas:

A) Supõe incorretamente que o viés vem da “incorporação de trabalhos em psicologia”. Contudo, o texto explica que pesquisas em psicologia são usadas para testar e medir o viés, não para provocá-lo.

C) Aponta para a influência da IA em diversas áreas, mas isso é uma consequência do uso, não a causa do viés.

D) Define corretamente o que é um algoritmo, mas essa definição não explica por que há viés.

Estratégia para questões similares: Sempre leia com atenção a relação de causa e consequência apresentada no texto. Busque palavras-chave como “because”, “since”, ou “as a result”, que frequentemente marcam explicações do motivo de algo acontecer. Tome cuidado com pegadinhas: alternativas com definições gerais ou secundárias (como a alternativa D) geralmente não resolvem o problema principal pedido na questão.

Gostou do comentário? Deixe sua avaliação aqui embaixo!

Estatísticas

Aulas sobre o assunto

Questões para exercitar

Artigos relacionados

Dicas de estudo