Questões

Filtrar por:

limpar filtros

Foram encontradas 10 questões.
Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

No primeiro parágrafo do texto CG2A1-I, o fato de as pessoas confiarem acriticamente em sistemas que usam IA e o fato de elas atribuírem a responsabilidade aos artefatos tecnológicos em vez de a seus construtores são apresentados como
  • A: causas da ilusão de haver um ser senciente por trás das mídias sintéticas.
  • B: consequências da ilusão de haver um ser senciente por trás das mídias sintéticas.
  • C: finalidades da ilusão de haver um ser senciente por trás das mídias sintéticas.
  • D: condições da ilusão de haver um ser senciente por trás das mídias sintéticas.
  • E: concessões da ilusão de haver um ser senciente por trás das mídias sintéticas.

Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

Assinale a opção correta no que se refere à estrutura argumentativa do texto CG2A1-I.
  • A: No primeiro parágrafo, identifica-se o problema de se atribuir ingenuamente capacidade de agir à IA; no segundo, inicia-se a defesa da atual ausência de responsabilização dos construtores dessa tecnologia; no terceiro, articulam-se as ideias dos parágrafos anteriores para apontar o real problema no desenvolvimento dos experimentos de IA.
  • B: No primeiro parágrafo, identifica-se o problema de se atribuir ilusoriamente à IA capacidade de agir; no segundo, desenvolve-se a questão da atual ausência de regulamentação que imponha transparência a essa tecnologia digital e de responsabilização dos construtores de artefatos tecnológicos; no terceiro, as ideias dos parágrafos anteriores são articuladas para apontar o real problema no desenvolvimento dos experimentos de IA.
  • C: No primeiro parágrafo, critica-se a confiança excessiva das pessoas nos sistemas de IA; no segundo, é introduzida a questão da atual ausência de responsabilização dos artefatos tecnológicos e de seus criadores; no terceiro, retoma-se o problema abordado no primeiro parágrafo, vinculando-o à necessidade de regulamentação da IA.
  • D: No primeiro parágrafo, identifica-se o problema de se atribuir indevidamente poder de ação à IA; no segundo, aborda-se a questão da atual ausência de responsabilização de seus construtores, destacando-se que eles superestimam os lucros de seus produtos; no terceiro, é retomado o problema abordado no primeiro parágrafo, vinculando-o à necessidade de regulamentação da IA.
  • E: No primeiro parágrafo, critica-se a antropomorfização dos sistemas automatizados de IA; no segundo, desenvolve-se a ideia da necessidade de responsabilização dos construtores da IA e de sua regulamentação; no terceiro, as ideias dos parágrafos anteriores são resumidas para apontar o real problema no desenvolvimento dos experimentos de IA.

Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

Com base nos sentidos do texto CG2A1-I, julgue os itens a seguir.

I Entende-se do texto que a ilusão que antropomorfiza a IA e transforma a corrida rumo a seu desenvolvimento em um destino inescapável beneficia as corporações que lucram com a IA.
II No segundo parágrafo, a afirmação de que a garantia de segurança no uso da tecnologia digital deveria recair sobre as empresas é uma proposta que responde à demanda por transparência.
III No terceiro parágrafo, identifica-se uma contraposição entre os interesses das corporações e os das pessoas comuns.

Assinale a opção correta.
  • A: Nenhum item está certo.
  • B: Apenas os itens I e II estão certos.
  • C: Apenas os itens I e III estão certos.
  • D: Apenas os itens II e III estão certos.
  • E: Todos os itens estão certos.

Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

Assinale a opção em que se resumem corretamente as relações estabelecidas, no segundo parágrafo do texto CG2A1-I, entre regulamentação, transparência e responsabilização na construção, implementação e segurança de uso da IA.
  • A: Regulamentação acarretaria transparência e transparência acarretaria responsabilização.
  • B: Transparência acarretaria regulamentação e regulamentação acarretaria responsabilização.
  • C: Regulamentação acarretaria transparência e responsabilização.
  • D: Responsabilização acarretaria regulamentação e regulamentação acarretaria transparência.
  • E: Responsabilização acarretaria regulamentação e transparência.

Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

Assinale a opção em que o vocábulo indicado expressa, no texto CG2A1-I, uma ação ainda não realizada.
  • A: “infla” (segundo período do primeiro parágrafo)
  • B: “promete” (primeiro período do primeiro parágrafo)
  • C: “produzidos” (último período do segundo parágrafo)
  • D: “afirmam” (último período do terceiro parágrafo)
  • E: “imponha” (primeiro período do segundo parágrafo)

Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

No texto CG2A1-I, as formas pronominais “os”, em “os antropomorfiza” (segundo período do primeiro parágrafo), e “las”, em “construí-las” (final do terceiro parágrafo) referem-se, respectivamente, a
  • A: “sistemas automatizados” (segundo período do primeiro parágrafo) e ‘poderosas mentes digitais’ (penúltimo período do terceiro parágrafo).
  • B: “futuro ‘florescente’ ou um futuro ‘potencialmente catastrófico’” (primeiro período do primeiro parágrafo) e “empresas” (último período do terceiro parágrafo).
  • C: “um ser senciente” (segundo período do primeiro parágrafo) e “práticas de exploração” (último período do terceiro parágrafo).
  • D: “sistemas automatizados” (segundo período do primeiro parágrafo) e “práticas de exploração” (último período do terceiro parágrafo).
  • E: “um futuro ‘florescente’ ou um futuro ‘potencialmente catastrófico’” (primeiro período do primeiro parágrafo) e ‘poderosas mentes digitais’ (penúltimo período do terceiro parágrafo).

Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

Assinale a opção em que a proposta de reescrita do trecho “mas também a lhes atribuírem” (terceiro período do primeiro parágrafo) é gramaticalmente correta e coerente com as ideias do texto CG2A1-I.
  • A: entretanto a atribuírem àquelas
  • B: embora a atribuam aqueles
  • C: como também a atribuírem a eles
  • D: quanto à atribuírem a estes
  • E: contudo a atribuírem àqueles

Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

Assinale a opção em que a proposta de substituição para o trecho “o que significa que” (último período do segundo parágrafo) preservaria tanto os sentidos do texto CG2A1-I quanto a sua correção gramatical.
  • A: ou seja,
  • B: por exemplo,
  • C: entretanto,
  • D: além disso,
  • E: por que

Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

No texto CG2A1-I, o vocábulo “senciente” (segundo período do primeiro parágrafo) significa
  • A: inexistente no mundo real.
  • B: desprovido de consciência.
  • C: criado de forma artificial.
  • D: diferente do ser humano.
  • E: capaz de perceber pelos sentidos.

Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).
No que se refere à concordância nominal e verbal, estaria mantida a correção gramatical do texto CG2A1-I caso se substituísse

I “ser” (segundo período do terceiro parágrafo) por serem.
II “impulsionadas” (primeiro período do terceiro parágrafo) por impulsionada.
III “deveriam” (penúltimo período do terceiro parágrafo) por deveria.

Assinale a opção correta.
  • A: Apenas o item I está certo.
  • B: Apenas o item II está certo.
  • C: Apenas os itens I e III estão certos.
  • D: Apenas os itens II e III estão certos.
  • E: Todos os itens estão certos.

Exibindo de 1 até 10 de 10 questões.