Questões

Filtrar por:

limpar filtros

Foram encontradas 209 questões.
Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

Com base nas regras de concordância nominal e verbal, julgue o seguinte item, relativo ao texto 2A1-I.

No trecho “os sistemas de IA passam a decidir” (primeiro período do segundo parágrafo), é facultativa a flexão da forma verbal “decidir” no plural, razão por que seria igualmente correta a expressão os sistemas de IA passam a decidirem.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

À luz das normas de regência nominal e verbal, julgue o item seguinte, em relação ao texto 2A1-I.

No trecho “necessário para a responsabilização” (último período do segundo parágrafo), o segmento “para a” poderia ser substituído pelo vocábulo à.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

À luz das normas de regência nominal e verbal, julgue o item seguinte, em relação ao texto 2A1-I.

Em “culminou com escolhas” (segundo período do segundo parágrafo), a substituição da preposição “com” por em resultaria em incorreção gramatical no texto.
  • A: Certo
  • B: Errado

Texto associado
Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

À luz das normas de regência nominal e verbal, julgue o item seguinte, em relação ao texto 2A1-I.

Haja vista a regência de “confrontado” (primeiro período do primeiro parágrafo) admitida no texto, o complemento regido por esse termo só pode ser introduzido pela preposição “com”.
  • A: Certo
  • B: Errado

Se reescrevermos as frases abaixo, eliminando a palavra porque, a forma INADEQUADA dessa reescritura, será:
  • A: O jogador foi expulso porque assim decidiram os juízes / por decisão dos juízes;
  • B: Entreguei-lhe a encomenda porque confiava nele / em confiança;
  • C: Causou um acidente porque a estrada molhada fez derraparem os pneus / por derrapagem dos pneus na estrada molhada;
  • D: Não fez a redação porque o tema era muito complexo / pela complexão do tema;
  • E: O juiz sentou-se longe dos demais passageiros, porque temia a reação do público / por medo da reação do público.

A forma da oração reduzida abaixo que foi adequadamente substituída por uma oração desenvolvida, de mesmo sentido, é:
  • A: Foi necessário vacinarem-se as pessoas no momento adequado / Foi necessário que as pessoas se vacinassem no momento adequado;
  • B: Chegando ao trabalho, mandarei as cartas / Na chegada ao trabalho, mandarei as cartas;
  • C: O chefe pediu para chegarmos sem atraso / O chefe pediu que cheguemos sem atraso;
  • D: Era natural os alunos preferirem sair antes da hora / Era natural a preferência dos alunos por saíram antes da hora;
  • E: Saíram todos da sala para poderem fotografá-la / Saíram todos da sala para uma possível fotografia.

Observe o seguinte parágrafo:
“Tem-se discutido muito sobre as funções da linguagem humana e a hierarquia natural que há entre elas. É fácil observar, por exemplo, que é pela posse e uso da linguagem, falando mentalmente ao próximo ou a nós mesmos, que conseguiremos organizar nosso pensamento e torná-lo articulado, concatenado e nítido”.

Considerando o primeiro período como tópico frasal, o seu tipo de desenvolvimento é identificado como:
  • A: contraste;
  • B: explicitação;
  • C: enumeração;
  • D: localização temporal / espacial;
  • E: relação causa / efeito.

Em todas as opções abaixo, o termo sublinhado foi substituído por um outro, formado com a ajuda de um afixo (prefixo ou sufixo); a opção em que a substituição está INADEQUADA, é:
  • A: No primeiro dia das férias, vou fazer uma análise de mim mesmo / autoanálise;
  • B: A vacina aplicada há pouco tempo deve trazer benefícios aos contaminados / recém-aplicada;
  • C: Monteiro Lobato está sendo lido de novo / renovado;
  • D: O ex-presidente da empresa tinha uma riqueza dificilmente imaginada / inimaginável;
  • E: As ações foram valorizadas acima do normal / supervalorizadas.

O filósofo inglês Francis Bacon escreveu: “São todos descobridores ruins, que pensam que não há terra quando nada veem além do mar”.
O erro desses descobridores era, portanto:
  • A: desconsiderarem opiniões alheias, diferentes das suas;
  • B: considerarem uma dúvida como certeza;
  • C: partirem de premissas insuficientes;
  • D: utilizarem o método dedutivo;
  • E: realizarem uma generalização exagerada.

Um escritor russo disse o seguinte: “Dizem que não há justiça sobre a terra. Mas por acaso existe no céu?”

Nesse pequeno texto argumentativo, o argumento utilizado para rebater a primeira afirmação é falacioso, caracterizando-se como um(a):
  • A: falsa analogia;
  • B: fuga do assunto;
  • C: confusão causa/efeito;
  • D: argumento autoritário;
  • E: generalização excessiva.

Exibindo de 81 até 90 de 209 questões.