Questões

Filtrar por:

limpar filtros

Foram encontradas 1 questões.
Texto CG2A1-I


É perigoso nos distrairmos com uma fantasia utópica ou apocalíptica possibilitada pela inteligência artificial (IA), que promete ou um futuro “florescente” ou um futuro “potencialmente catastrófico”. Essa ilusão, que infla as capacidades dos sistemas automatizados e os antropomorfiza, induz as pessoas a pensar que existe um ser senciente por trás das mídias sintéticas. Isso seduz as pessoas a não apenas confiarem acriticamente em sistemas como o ChatGPT, mas também a lhes atribuírem erroneamente a capacidade de agir. A responsabilização propriamente dita não cabe aos artefatos tecnológicos, mas a seus construtores.

O que precisamos é de regulamentação que imponha transparência a essa tecnologia digital. Isso deve ficar sempre claro quando nos deparamos com mídias sintéticas, e as organizações que constroem esses sistemas também deveriam ser obrigadas a documentar e a divulgar os dados de treinamento e as arquiteturas de modelo. Além disso, o ônus de criar instrumentos seguros de uso dessas tecnologias deveria recair sobre as empresas que constroem e implantam sistemas generativos, o que significa que os construtores desses sistemas deveriam ser responsabilizados pelos resultados produzidos por seus produtos.

A corrida atual rumo a “experimentos de IA” cada vez maiores não é um caminho predeterminado no qual a nossa única escolha é o quão rápido devemos correr, mas uma série de decisões impulsionadas pelo lucro. As ações e as escolhas das corporações devem ser moldadas por regulamentação que proteja os direitos e os interesses das pessoas. O foco da nossa preocupação não deveriam ser as “poderosas mentes digitais” imaginárias. Em vez disso, deveríamos focar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las.


Timnit Gebru et al.Papagaios estocásticos: o pedido de moratória para a IA e os riscos em jogo. Internet: (com adaptações).

Assinale a opção correta no que se refere à estrutura argumentativa do texto CG2A1-I.
  • A: No primeiro parágrafo, identifica-se o problema de se atribuir ingenuamente capacidade de agir à IA; no segundo, inicia-se a defesa da atual ausência de responsabilização dos construtores dessa tecnologia; no terceiro, articulam-se as ideias dos parágrafos anteriores para apontar o real problema no desenvolvimento dos experimentos de IA.
  • B: No primeiro parágrafo, identifica-se o problema de se atribuir ilusoriamente à IA capacidade de agir; no segundo, desenvolve-se a questão da atual ausência de regulamentação que imponha transparência a essa tecnologia digital e de responsabilização dos construtores de artefatos tecnológicos; no terceiro, as ideias dos parágrafos anteriores são articuladas para apontar o real problema no desenvolvimento dos experimentos de IA.
  • C: No primeiro parágrafo, critica-se a confiança excessiva das pessoas nos sistemas de IA; no segundo, é introduzida a questão da atual ausência de responsabilização dos artefatos tecnológicos e de seus criadores; no terceiro, retoma-se o problema abordado no primeiro parágrafo, vinculando-o à necessidade de regulamentação da IA.
  • D: No primeiro parágrafo, identifica-se o problema de se atribuir indevidamente poder de ação à IA; no segundo, aborda-se a questão da atual ausência de responsabilização de seus construtores, destacando-se que eles superestimam os lucros de seus produtos; no terceiro, é retomado o problema abordado no primeiro parágrafo, vinculando-o à necessidade de regulamentação da IA.
  • E: No primeiro parágrafo, critica-se a antropomorfização dos sistemas automatizados de IA; no segundo, desenvolve-se a ideia da necessidade de responsabilização dos construtores da IA e de sua regulamentação; no terceiro, as ideias dos parágrafos anteriores são resumidas para apontar o real problema no desenvolvimento dos experimentos de IA.

Exibindo de 1 até 1 de 1 questões.