Questõesde IF Sul - MG 2017

1
1
Foram encontradas 70 questões
3c9bbcfe-b5
IF Sul - MG 2017 - Biologia - Fotossíntese, Moléculas, células e tecidos

Encontrada a evidência de vida mais antiga

Uma equipe internacional de geólogos, paleontólogos e nanotecnólogos encontrou estruturas tubulares e filamentosas que, segundo interpretam, representam bactérias fósseis. Foram encontradas em fumarolas hidrotermais do fundo do oceano de 3,77 a 4,28 bilhões de anos atrás. Como a Terra tem 4,5 bilhões de anos, esses microfósseis representam as mais antigas evidências de vida de que temos registro até agora.

Adaptado de Encontrada a evidência de vida mais antiga- JAVIER SAMPEDRO – 02/03/2017

Considerando a teoria heterotrófica da formação dos primeiros seres vivos, essas bactérias eram:

A
fotossintetizantes aeróbias
B
quimiossintetizantes aeróbias
C
quimiossintetizantes anaeróbias
D
fotossintetizantes anaeróbias
3c9f8c78-b5
IF Sul - MG 2017 - Biologia - Hereditariedade e diversidade da vida, Mutações e alterações cromossômicas

Os mamutes desapareceram quando já estavam feridos de morte há milênios

Estudo observou que os mamutes insulares haviam acumulado muitas mutações daninhas em seu genoma que estavam interferindo na função dos genes. Graças a essas mudanças, os pesquisadores sabem que os mamutes tinham perdido muitos receptores olfativos, e outras mutações sugerem que o pelo que os protegia do frio tinha sido substituído por uma capa translúcida muito menos eficiente para cumprir sua função.

Adaptado de Daniel Mediavilla – 03/02/2017. Disponível em<http://brasil.elpais.com/brasil/2017/02/28/ciencia/1488285879_317551.html>

As mutações em questão ocorreram:

A
nas bases nitrogenadas do DNA
B
nas bases nitrogenadas do RNA
C
na desoxirribose
D
na ribose
3c98be0b-b5
IF Sul - MG 2017 - Biologia - Estrutura e fisiologia da Membrana Plasmática, Moléculas, células e tecidos

Experiência mostra ser possível cultivar batatas em Marte

Em janeiro de 2016, utilizando um dos solos da Terra mais parecidos com o de Marte (com até 20 vezes mais sais que a maior parte dos solos), pesquisadores peruanos e norte-americanos deram início ao projeto Batatas em Marte. O objetivo foi verificar se a batata pode ser cultivada em condições como as que existem no planeta vermelho. Embora ainda falte tratar de outros problemas, os primeiros resultados mostram que o tubérculo consegue crescer em solos tão áridos e salobros como os marcianos.

Adaptado de MIGUEL ÁNGEL 10/03/2017.Disponível em<http://brasil.elpais.com/brasil/2017/03/09/ciencia/1489084581_023882.html> .

Nessas condições ocorrerá, para fora das células da batata, o processo de:

A
osmose
B
difusão simples
C
difusão facilitada
D
transporte ativo
3c905d53-b5
IF Sul - MG 2017 - Matemática - Análise de Tabelas e Gráficos, Limite

EUA voltam a produzir plutônio-238 para missões espaciais: O plutônio-238 produz calor conforme decai. Esse calor é usado para produzir eletricidade para alimentar os equipamentos das sondas e robôs espaciais e para manter esses equipamentos aquecidos no frio do espaço e de planetas distantes, onde a energia solar não é uma opção viável. O robô Curiosity levou uma carga de 480g de plutônio-238, o que é sufi ciente para mantê-lo em funcionamento por 14 anos. A missão Marte 2020, com um robô sucessor do Curiosity, deverá levar uma quantidade similar.
(Fonte: www.inovacaotecnologica.com.br, acessado em: 12/04/17).

Observe que, segundo a reportagem, depois de 14 anos os 480g de plutônio não produziam mais o esperado. Isso porque o decaimento do plutônio-238 segue a função Mf =Mie-0,008t, em que Mf é a massa final, Mi a massa inicial e t é o tempo dado em anos.

O gráfico que melhor representa esse decaimento de 480g em função do tempo pode ser observado em:

A

B

C

D

3c931ccf-b5
IF Sul - MG 2017 - Matemática - Análise de Tabelas e Gráficos, Pontos e Retas, Geometria Analítica, Geometria Plana, Triângulos

O conjunto dos números complexos z = a + bi com a,b reais e i = √-1 possui como operações a adição (a + bi) + (c + di) = (a + c) + (b + d)i e o produto (a + bi) ∙ (c + di) = (ac - bd) + (ad + bc)i.

Esses números possuem grande diversidade de aplicações, desde o entendimento da existência de buracos negros no universo até o uso em computação gráfica. Nesse último caso, trabalhando as operações descritas, pode-se transladar, ampliar ou reduzir e rotacionar fi guras na tela do computador.

Dados os números z1 = 2 + i; z2 = -1 + 2i e z3 = -2 - 2i, obtém-se o seguinte triângulo:


Considerando o triângulo dado, utilizando as operações de multiplicação e adição, nessa ordem, pelo número z = 1 - 2i obteremos a fi gura:

A

B

C

D

3c95d6aa-b5
IF Sul - MG 2017 - Biologia - Transcrição e Tradução, Moléculas, células e tecidos

Produção de enzima em embriões de galinha

Ovos fertilizados de galinha foram bombardeados por meio da técnica de biobalística e passaram a expressar o gene LacZ oriundo de Escherichia coli, obtendo embriões transformados, capazes de produzir β-galactosidase, uma enzima utilizada na hidrólise da lactose.

Adaptado de In situ DNA transfer to chicken embryos by biolistics. RIBEIRO, Luciana A. et al. Disponível em <http://dx.doi.org/10.1590/S1415-47571999000400010>

A produção da β-galactosidase foi possível devido à:

A
duplicação do DNA do gene lacZ.
B

transcrição do RNA transportador do gene LacZ.

C
tradução do RNA mensageiro sintetizado a partir do gene lacZ.
D
expressão de proteínas sintetizadas a partir do DNA original do ovo.
3c8cd55a-b5
IF Sul - MG 2017 - Química - Fórmulas, Balanceamento e Leis ponderais das reações químicas, Representação das transformações químicas

Num “sapato de cromo”, o couro é tratado com um banho de “licor de cromo”, preparado por meio da reação representada pela equação:

Na2Cr2O7 + xSO2 + H2O → yCr(OH)SO4 + Na2 SO4

Observe que existem duas incógnitas x e y que precisam ser determinadas para que a equação esteja “balanceada”, pois segundo a Lei de Lavoisier, “a soma das massas das substâncias reagentes é igual à soma das massas dos produtos da reação”. Logo, um sistema de equações pode ser utilizado para determinar tais valores, a saber:

Para o enxofre (S) temos a equação x = y + 1 e para o oxigênio (O) a equação 7 + 2x + 1 = 5y + 4.

Depois de balanceada com os menores coeficientes inteiros possíveis, ela apresenta:

A
x=2 e y=3
B
x=3 e y=2
C
x=2 e y=2
D
x=3 e y=3
3c86598a-b5
IF Sul - MG 2017 - Matemática - Álgebra, Problemas

Em uma plantação de maracujás, as mudas são plantadas de forma alinhadas e a uma distância de 2m umas das outras. Como castigo a seu filho, um plantador de maracujás aplicou a seguinte regra:
“Com um copo descartável molhe 15 mudas de uma fila, um copo para cada muda, indo e voltando à bica para encher o copo.”
Sabendo-se que a bica de água fica a 2m da primeira muda e que o copo deve ser levado até a bica ao fim do processo, esse fi lho caminhará em metros, entre idas e vindas, um total de:

A
60
B
120
C
480
D
930
3c8977a4-b5
IF Sul - MG 2017 - Matemática - Probabilidade

Certo professor ganhou de presente uma caixa com 10 goiabas, sendo que 3 delas estavam verdes e as demais maduras. Retirando aleatoriamente duas goiabas da caixa (sem reposição), a probabilidade de serem retiradas duas goiabas maduras é:

A
1/15
B
3/10
C
6/10
D
7/15
3c806d69-b5
IF Sul - MG 2017 - Matemática - Áreas e Perímetros, Geometria Plana, Triângulos

Uma famosa região rodeada por mistérios é o Triângulo das Bermudas, localizado entre a ilha Bermudas, Miami e San Juan (Porto Rico), que possuem como coordenadas aproximadas, respectivamente, (10,-4), (3,-20) e (-4,-6), dadas em graus (Latitude, Longitude). Considerando as coordenadas dadas para o Triângulo das Bermudas, a área dessa região em graus quadrados será de:


A
270
B
210
C
105
D
47
3c8382e0-b5
IF Sul - MG 2017 - Matemática - Aritmética e Problemas, Áreas e Perímetros, Razão, Proporção e Números Proporcionais, Geometria Plana

Um marido apaixonado resolveu prestar uma homenagem à sua esposa, construindo um jardim em forma de coração por meio de um quadrado e dois semicírculos, conforme a fi gura. Para construí-lo, ele usou mudas de flores vermelhas na razão de 200 mudas por metro quadrado. Assim, o total de mudas utilizadas na montagem de tal jardim foi de (Considere π=3).

A
3.200
B
5.600
C
8.000
D
9.600
3c7b089d-b5
IF Sul - MG 2017 - Matemática - Aritmética e Problemas, Sistemas de Numeração e Operações Fundamentais

Somos irmãos - esclareceu o mais velho - e recebemos como herança esses 35 camelos. Segundo a vontade expressa de meu pai, devo receber a metade, o meu irmão Hamed Namir uma terça parte e ao Harim, o mais moço, deve tocar apenas a nona parte (O homem que calculava. Malba Tahan).

Essa divisão intrigava os herdeiros por não ser uma divisão exata. Supondo que fizessem a divisão por valores exatos, o número de camelos que sobrariam ainda para a partilha seria de:

A
17
B
14
C
11
D
4
3c7dbe6f-b5
IF Sul - MG 2017 - Matemática - Aritmética e Problemas, Porcentagem

Em uma turma de Sistemas de Informação formada por 30 rapazes e 20 moças tem-se a seguinte estatística: 20% dos rapazes são fumantes; 30% das moças são fumantes. Logo, a porcentagem dos que NÃO fumam nessa turma é de:

A
38
B
50
C
60
D
76
3c728872-b5
IF Sul - MG 2017 - Inglês - Interpretação de texto | Reading comprehension

Com relação ao teste desenvolvido pelos pesquisadores para calcular o preconceito, assinale a alternativa correta.

AI Picks Up Racial and Gender Biases When Learning from What Humans Write

AI1 picks up racial and gender biases2 when learning language from text, researchers say. Without any supervision, a machine learning algorithm learns to associate female names more with family words than career words, and black names as being more unpleasant than white names.

For a study published today in Science, researchers tested the bias of a common AI model, and then matched the results against a well-known psychological test that measures bias in humans. The team replicated in the algorithm all the psychological biases they tested, according to a study from co-author Aylin Caliskan, a post-doc at Princeton University. Because machine learning algorithms are so common, influencing everything from translation to scanning names on resumes, this research shows that the biases are pervasive, too. 

An algorithm is a set of instructions that humans write to help computers learn. Think of it like a recipe, says Zachary Lipton, an AI researcher at UC San Diego who was not involved in the study. Because algorithms use existing materials — like books or text on the internet — it’s obvious that AI can pick up biases if the materials themselves are biased. (For example, Google Photos tagged black users as gorillas.) We’ve known for a while, for instance, that language algorithms learn to associate the word “man” with “professor” and the word “woman” with “assistant professor.” But this paper is interesting because it incorporates previous work done in psychology on human biases, Lipton says.

For today’s study, Caliskan’s team created a test that resembles the Implicit Association Test (IAT), which is commonly used in psychology to measure how biased people are (though there has been some controversy over its accuracy). In the IAT, subjects are presented with two images — say, a white man and a black man — and words like “pleasant” or “unpleasant.” The IAT calculates how quickly you match up “white man” and “pleasant” versus “black man” and “pleasant,” and vice versa. The idea is that the longer it takes you to match up two concepts, the more trouble you have associating them.

The test developed by the researchers also calculates bias, but instead of measuring “response time”, it measures the mathematical distance between two words. In other words, if there’s a bigger numerical distance between a black name and the concept of “pleasant” than a white name and “pleasant”, the model’s association between the two isn’t as strong. The further apart the words are, the less the algorithm associates them together.

Caliskan’s team then tested their method on one particular algorithm: Global Vectors for Word Representation (GLoVe) from Stanford University. GLoVe basically crawls the web to find data and learns associations between billions of words. The researchers found that, in GLoVe, female words are more associated with arts than with math or science, and black names are seen as more unpleasant than white names. That doesn’t mean there’s anything wrong with the AI system, per se, or how the AI is learning — there’s something wrong with the material.

1AI: Artificial Intelligence
2bias: prejudice; preconception

Disponível em <http://www.theverge.com/>. Acesso em: 18/04/2017.
A
Se há uma menor distância entre um nome branco e “agradável”, a associação entre os dois conceitos será mais forte.
B
Quanto maior a distância numérica entre a ideia de “agradável” e um nome negro, mais forte será a associação entre eles pelo algoritmo.
C
O teste mede o tempo de resposta e a distância matemática entre duas palavras.
D
Quanto mais longe as palavras estão, mais o algoritmo as associa.
3c754622-b5
IF Sul - MG 2017 - Inglês - Interpretação de texto | Reading comprehension

Why does Artificial Intelligence (AI) pick up biases?

AI Picks Up Racial and Gender Biases When Learning from What Humans Write

AI1 picks up racial and gender biases2 when learning language from text, researchers say. Without any supervision, a machine learning algorithm learns to associate female names more with family words than career words, and black names as being more unpleasant than white names.

For a study published today in Science, researchers tested the bias of a common AI model, and then matched the results against a well-known psychological test that measures bias in humans. The team replicated in the algorithm all the psychological biases they tested, according to a study from co-author Aylin Caliskan, a post-doc at Princeton University. Because machine learning algorithms are so common, influencing everything from translation to scanning names on resumes, this research shows that the biases are pervasive, too. 

An algorithm is a set of instructions that humans write to help computers learn. Think of it like a recipe, says Zachary Lipton, an AI researcher at UC San Diego who was not involved in the study. Because algorithms use existing materials — like books or text on the internet — it’s obvious that AI can pick up biases if the materials themselves are biased. (For example, Google Photos tagged black users as gorillas.) We’ve known for a while, for instance, that language algorithms learn to associate the word “man” with “professor” and the word “woman” with “assistant professor.” But this paper is interesting because it incorporates previous work done in psychology on human biases, Lipton says.

For today’s study, Caliskan’s team created a test that resembles the Implicit Association Test (IAT), which is commonly used in psychology to measure how biased people are (though there has been some controversy over its accuracy). In the IAT, subjects are presented with two images — say, a white man and a black man — and words like “pleasant” or “unpleasant.” The IAT calculates how quickly you match up “white man” and “pleasant” versus “black man” and “pleasant,” and vice versa. The idea is that the longer it takes you to match up two concepts, the more trouble you have associating them.

The test developed by the researchers also calculates bias, but instead of measuring “response time”, it measures the mathematical distance between two words. In other words, if there’s a bigger numerical distance between a black name and the concept of “pleasant” than a white name and “pleasant”, the model’s association between the two isn’t as strong. The further apart the words are, the less the algorithm associates them together.

Caliskan’s team then tested their method on one particular algorithm: Global Vectors for Word Representation (GLoVe) from Stanford University. GLoVe basically crawls the web to find data and learns associations between billions of words. The researchers found that, in GLoVe, female words are more associated with arts than with math or science, and black names are seen as more unpleasant than white names. That doesn’t mean there’s anything wrong with the AI system, per se, or how the AI is learning — there’s something wrong with the material.

1AI: Artificial Intelligence
2bias: prejudice; preconception

Disponível em <http://www.theverge.com/>. Acesso em: 18/04/2017.
A
Because it incorporates previous work done in psychology on human biases.
B
Because algorithms use existing materials — like books or texts on the internet — and the materials themselves are biased.
C
Because machine learning algorithms influence everything from translation to scanning names on resumes.
D
Because an algorithm is a set of instructions that humans write to help computers learn.
3c784e2e-b5
IF Sul - MG 2017 - Matemática - Sistema de Unidade de Medidas, Aritmética e Problemas, Regra de Três

A areia é um material muito utilizado na construção civil, sendo a unidade de medida utilizada para esse material o metro cúbico. Tião comprou um metro cúbico de areia, e esta foi entregue e depositada em sua calçada, obrigando-o a transportá-la para dentro de seu quintal. Para o transporte, Tião resolveu utilizar um caixote de madeira no formato de um cubo com 50 cm em cada lado. Assim, para transportar toda a areia da calçada para seu quintal, o número mínimo de viagens que Tião necessitará é de:

A
20
B
10
C
8
D
4
3c6dfa34-b5
IF Sul - MG 2017 - Inglês - Interpretação de texto | Reading comprehension

Assinale a alternativa que está de acordo com o texto.

AI Picks Up Racial and Gender Biases When Learning from What Humans Write

AI1 picks up racial and gender biases2 when learning language from text, researchers say. Without any supervision, a machine learning algorithm learns to associate female names more with family words than career words, and black names as being more unpleasant than white names.

For a study published today in Science, researchers tested the bias of a common AI model, and then matched the results against a well-known psychological test that measures bias in humans. The team replicated in the algorithm all the psychological biases they tested, according to a study from co-author Aylin Caliskan, a post-doc at Princeton University. Because machine learning algorithms are so common, influencing everything from translation to scanning names on resumes, this research shows that the biases are pervasive, too. 

An algorithm is a set of instructions that humans write to help computers learn. Think of it like a recipe, says Zachary Lipton, an AI researcher at UC San Diego who was not involved in the study. Because algorithms use existing materials — like books or text on the internet — it’s obvious that AI can pick up biases if the materials themselves are biased. (For example, Google Photos tagged black users as gorillas.) We’ve known for a while, for instance, that language algorithms learn to associate the word “man” with “professor” and the word “woman” with “assistant professor.” But this paper is interesting because it incorporates previous work done in psychology on human biases, Lipton says.

For today’s study, Caliskan’s team created a test that resembles the Implicit Association Test (IAT), which is commonly used in psychology to measure how biased people are (though there has been some controversy over its accuracy). In the IAT, subjects are presented with two images — say, a white man and a black man — and words like “pleasant” or “unpleasant.” The IAT calculates how quickly you match up “white man” and “pleasant” versus “black man” and “pleasant,” and vice versa. The idea is that the longer it takes you to match up two concepts, the more trouble you have associating them.

The test developed by the researchers also calculates bias, but instead of measuring “response time”, it measures the mathematical distance between two words. In other words, if there’s a bigger numerical distance between a black name and the concept of “pleasant” than a white name and “pleasant”, the model’s association between the two isn’t as strong. The further apart the words are, the less the algorithm associates them together.

Caliskan’s team then tested their method on one particular algorithm: Global Vectors for Word Representation (GLoVe) from Stanford University. GLoVe basically crawls the web to find data and learns associations between billions of words. The researchers found that, in GLoVe, female words are more associated with arts than with math or science, and black names are seen as more unpleasant than white names. That doesn’t mean there’s anything wrong with the AI system, per se, or how the AI is learning — there’s something wrong with the material.

1AI: Artificial Intelligence
2bias: prejudice; preconception

Disponível em <http://www.theverge.com/>. Acesso em: 18/04/2017.
A
A Inteligência artificial (AI) evita preconceito racial e de gênero ao aprender a linguagem por meio de textos.
B
Não há nada de errado com o material, mas com a maneira como a Inteligência artificial (AI) aprende.
C
O algoritmo aprende a associar nomes femininos mais com palavras do campo familiar do que com palavras relacionadas à carreira profissional.
D
O teste desenvolvido pelos pesquisadores calcula o preconceito pelo tempo de resposta da máquina ao associar palavras.
3c6af2c3-b5
IF Sul - MG 2017 - Inglês - Aspectos linguísticos | Linguistic aspects, Interpretação de texto | Reading comprehension

Com relação às expressões abaixo, assinale a alternativa correta.

written word, movable type, mass publication

A
As palavras destacadas não alteram o sentido das palavras que acompanham.
B
A palavra e-mail poderia compor a lista, pois a letra e significa electronic, que é um modificador da palavra mail.
C
Em português a ordem das palavras seria a mesma nos três casos.
D
Embora tenham sentidos iguais, cada uma das palavras destacadas tem função diferente no texto.
3c646179-b5
IF Sul - MG 2017 - Português - Interpretação de Textos, Noções Gerais de Compreensão e Interpretação de Texto

Sobre o romance “Capitães da Areia”, de Jorge Amado, é INCORRETO afirmar que:

A
se trata de um livro cuja personagem central é coletiva, um grupo de meninos de rua.
B
as principais personagens masculinas são Pedro Bala, Sem Pernas, Volta Seca, Pirulito e Professor, e a figura feminina central é Dora.
C
o romance pretende denunciar um problema social: a questão do menor abandonado.
D
a obra de Jorge Amado representa o Ceará, descobrindo mazelas, violências e identificando grupos marginalizados e revolucionários.
3c6803dc-b5
IF Sul - MG 2017 - Inglês - Interpretação de texto | Reading comprehension

A evolução da comunicação é retratada com ironia no cartum. Com relação à figura e ao texto, é INCORRETO afirmar que:

A
o último personagem acredita que 140 caracteres são suficientes para dizer tudo.
B
o primeiro e o último personagem usam roupas semelhantes para insinuar que se encontram em estágios semelhantes da evolução.
C
o título: The Evolution of Written Communication seria adequado, pois o tema é abordado de maneira parcial.
D
seria mais adequado o título: The Decline of Communication, porque, na verdade, só houve retrocesso.