Questões

Filtrar por:

limpar filtros

Foram encontradas 209 questões.
Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I.

No trecho “de software ou, até mesmo, de quebra” (penúltimo período do segundo parágrafo), a eliminação da primeira vírgula prejudicaria a correção do texto.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I.

No último período do primeiro parágrafo, o emprego do hífen em “ético-jurídicos” é facultativo, razão por que estaria igualmente correta a grafia eticojurídicos.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

Considerando as regras gramaticais e ortográficas da língua portuguesa, julgue o item que se segue, relativamente ao texto 2A1-I.

No início do último período do primeiro parágrafo, a inserção de uma vírgula logo após a expressão “inteligência artificial” manteria a correção gramatical do texto.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

No que se refere a aspectos gramaticais do texto 2A1-I, julgue o seguinte item.

No segundo parágrafo, o vocábulo “que”, em “que culminou com escolhas” (antepenúltimo período) e “que hackers interfiram no sistema” (penúltimo período), pertence à mesma classe gramatical.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

No que se refere a aspectos gramaticais do texto 2A1-I, julgue o seguinte item.

A classificação gramatical do vocábulo “como” em “como também se observa a existência de robôs” (segundo período do primeiro parágrafo) é distinta de sua classificação em “como naquelas em que não foram realizadas atualizações” (penúltimo período do segundo parágrafo).
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

No que se refere a aspectos gramaticais do texto 2A1-I, julgue o seguinte item.

No primeiro período do segundo parágrafo, o vocábulo “quais” classifica-se como conjunção integrante, pois introduz uma oração que funciona como complemento do verbo “diferenciar”.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

Em relação às construções sintáticas do texto 2A1-I, julgue o próximo item.

No segundo período do primeiro parágrafo, o sujeito referencial da forma verbal “superando” é “robôs”.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

Em relação às construções sintáticas do texto 2A1-I, julgue o próximo item.

No penúltimo período do segundo parágrafo, o segmento “de quebra de deveres objetivos de cuidado” qualifica “situações”.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

Em relação às construções sintáticas do texto 2A1-I, julgue o próximo item.

No segundo período do segundo parágrafo, a expressão “uma vez que” confere noção de consequência à oração “o processo decisório decorreu de um aprendizado automático”.
  • A: Certo
  • B: Errado

Texto 2A1-I

O ordenamento jurídico vem sendo confrontado com as inovações tecnológicas decorrentes da aplicação da inteligência artificial (IA) nos sistemas computacionais. Não apenas se vivencia uma ampliação do uso de sistemas lastreados em IA no cotidiano, como também se observa a existência de robôs com sistemas computacionais cada vez mais potentes, nos quais os algoritmos passam a decidir autonomamente, superando a programação original. Nesse contexto, um dos grandes desafios ético-jurídicos do uso massivo de sistemas de inteligência artificial é a questão da responsabilidade civil advinda de danos decorrentes de robôs inteligentes, uma vez que os sistemas delituais tradicionais são baseados na culpa e essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial.

Perante a autonomia algorítmica na qual os sistemas de IA passam a decidir de forma diversa da programada, há uma dificuldade de diferenciar quais danos decorreram de erro humano e aqueles que derivaram de uma escolha equivocada realizada pelo próprio sistema ao agir de forma autônoma. O comportamento emergente da máquina, em função do processo de aprendizado profundo, sem receber qualquer controle da parte de um agente humano, torna difícil indicar quem seria o responsável pelo dano, uma vez que o processo decisório decorreu de um aprendizado automático que culminou com escolhas equivocadas realizadas pelo próprio sistema. Há evidentes situações em que se pode vislumbrar a existência de culpa do operador do sistema, como naquelas em que não foram realizadas atualizações de software ou, até mesmo, de quebra de deveres objetivos de cuidado, como falhas que permitem que hackers interfiram no sistema. Entretanto, excluídas essas situações, estará ausente o juízo de censura necessário para a responsabilização com base na culpa.


B. L. da Anunciação Melo e H. Ribeiro Cardoso. Sistemas de inteligência
artificial e responsabilidade civil: uma análise da proposta europeia acerca
da atribuição de personalidade civil. In: Revista Brasileira de Direitos
Fundamentais & Justiça, 16(1), 2020, p. 93-4 (com adaptações).

Em relação às construções sintáticas do texto 2A1-I, julgue o próximo item.

No último período do primeiro parágrafo, a oração “essa centralidade da culpa na responsabilidade civil se encontra desafiada pela realidade de sistemas de inteligência artificial” está coordenada, por adição, à oração imediatamente anterior a ela e ambas estão coordenadas à oração inicial desse período.
  • A: Certo
  • B: Errado

Exibindo de 1 até 10 de 209 questões.