Assinale a alternativa que está de acordo com o texto.
AI Picks Up Racial and Gender Biases When Learning from What Humans Write
AI1 picks up racial and gender biases2 when learning language from text, researchers say. Without any
supervision, a machine learning algorithm learns to associate female names more with family words
than career words, and black names as being more unpleasant than white names.
For a study published today in Science, researchers tested the bias of a common AI model, and then
matched the results against a well-known psychological test that measures bias in humans. The team
replicated in the algorithm all the psychological biases they tested, according to a study from co-author
Aylin Caliskan, a post-doc at Princeton University. Because machine learning algorithms are so common,
influencing everything from translation to scanning names on resumes, this research shows that the
biases are pervasive, too.
An algorithm is a set of instructions that humans write to help computers learn. Think of it like a recipe,
says Zachary Lipton, an AI researcher at UC San Diego who was not involved in the study. Because
algorithms use existing materials — like books or text on the internet — it’s obvious that AI can pick
up biases if the materials themselves are biased. (For example, Google Photos tagged black users as
gorillas.) We’ve known for a while, for instance, that language algorithms learn to associate the word
“man” with “professor” and the word “woman” with “assistant professor.” But this paper is interesting
because it incorporates previous work done in psychology on human biases, Lipton says.
For today’s study, Caliskan’s team created a test that resembles the Implicit Association Test (IAT), which
is commonly used in psychology to measure how biased people are (though there has been some
controversy over its accuracy). In the IAT, subjects are presented with two images — say, a white man
and a black man — and words like “pleasant” or “unpleasant.” The IAT calculates how quickly you match
up “white man” and “pleasant” versus “black man” and “pleasant,” and vice versa. The idea is that the
longer it takes you to match up two concepts, the more trouble you have associating them.
The test developed by the researchers also calculates bias, but instead of measuring “response time”, it
measures the mathematical distance between two words. In other words, if there’s a bigger numerical
distance between a black name and the concept of “pleasant” than a white name and “pleasant”, the
model’s association between the two isn’t as strong. The further apart the words are, the less the
algorithm associates them together.
Caliskan’s team then tested their method on one particular algorithm: Global Vectors for Word
Representation (GLoVe) from Stanford University. GLoVe basically crawls the web to find data and
learns associations between billions of words. The researchers found that, in GLoVe, female words are
more associated with arts than with math or science, and black names are seen as more unpleasant
than white names. That doesn’t mean there’s anything wrong with the AI system, per se, or how the AI
is learning — there’s something wrong with the material.
1AI: Artificial Intelligence
2bias: prejudice; preconception
Disponível em <http://www.theverge.com/>. Acesso em: 18/04/2017.
Gabarito comentado
Comentário do Gabarito – Interpretação de Texto em Inglês para Vestibular
Tema central da questão: O texto aborda como a Inteligência Artificial (AI) pode absorver e replicar preconceitos raciais e de gênero presentes nos textos de onde aprende. O recorte apresentado exemplifica detalhes do funcionamento e da mensuração desses vieses em algoritmos como o GLoVe.
Estratégia para resolução: Para questões de interpretação, é essencial identificar informações explícitas no texto e evitar inferências não justificadas. Palavras-chave como “associar”, “não há supervisão”, “biases” e a explicação sobre o funcionamento do teste dão suporte à alternativa correta.
Alternativa correta: C
C) O algoritmo aprende a associar nomes femininos mais com palavras do campo familiar do que com palavras relacionadas à carreira profissional.
O texto afirma que sem supervisão, o algoritmo associa nomes femininos a palavras de família em vez de carreira. Esse é um exemplo clássico de viés de gênero capturado no treinamento da AI. A alternativa está inteiramente de acordo com o texto, refletindo a ideia principal e demonstrando leitura atenta de detalhes específicos.
Análise das alternativas incorretas:
A) Incorreta. O texto diz que AI não evita, mas reproduz preconceitos dos textos que usa para aprender. Atenção à troca de sentido!
B) Incorreta. Afirma que há erro apenas na aprendizagem da AI, mas o texto destaca que o problema está nos próprios materiais utilizados — “there’s something wrong with the material”.
D) Incorreta. Traz um detalhe técnico equivocado: diferente da Implicit Association Test (IAT), o método dos pesquisadores usa distância matemática entre palavras, e não tempo de resposta.
Dica estratégica para provas: Procure termos idênticos do texto nas alternativas, desconfie de palavrinhas trocadas (como “evita” x “absorve”), e atente para descrições de procedimentos (ex: “resposta do algoritmo”, “mathematical distance”).
Resumo: A alternativa C é a correta porque traduz com precisão uma das informações centrais do texto, sem distorcer o sentido. As demais cometem equívocos ao inverter a lógica, omitir detalhes ou trocar conceitos técnicos delimitados no texto.
Gostou do comentário? Deixe sua avaliação aqui embaixo!






