Questões

Filtrar por:

limpar filtros

Foram encontradas 25009 questões.
O uso do acento grave indicativo da crase atende às exigências da norma-padrão da língua portuguesa em:
  • A: A possibilidade de pagar, transferir e receber dinheiro por meio do Pix renovou o sistema bancário brasileiro porque facilitou o acesso à diversas funcionalidades.
  • B: A implantação de uma nova modalidade de transferência bancária está relacionada à dupla preocupação do governo com a agilidade das movimentações e o progressivo processo de redução da desbancarização da população.
  • C: Com o crescimento da implantação da tecnologia nos serviços bancários, as empresas começaram à valorizar mais efetivamente os funcionários que possuem maior domínio desses meios.
  • D: Os gerentes responsáveis por comandar o sistema bancário correspondem à uma categoria muito qualificada de funcionários, porque precisam ter uma formação atualizada na área tecnológica.
  • E: Os limites de valores a serem estabelecidos para à abertura de contas bancárias foram ampliados, garantindo maior facilidade para as pessoas que têm menos recursos disponíveis.

Parágrafo 2:             Abrangente como é, o Pix pode reduzir ou acabar com a circulação das notas de real? Essa é uma pergunta sem resposta fácil. O fato é que o avanço das transações financeiras eletrônicas, em detrimento do uso do dinheiro em papel, pode ser benéfico para o Brasil, em vários sentidos. O Pix tem tudo para ser o empurrãozinho que nos falta para chegarmos a esse cenário.


No trecho “O fato é que o avanço das transações financeiras eletrônicas, em detrimento do uso do dinheiro em papel, pode ser benéfico para o Brasil, em vários sentidos. O Pix tem tudo para ser o empurrãozinho que nos falta para chegarmos a esse cenário.” (parágrafo 2), a segunda frase expressa, em relação à primeira, a ideia de
  • A: condição
  • B: tempo
  • C: contradição
  • D: finalidade
  • E: conclusão

O verbo implicar assume diferentes sentidos, dependendo de sua regência.
No trecho “Essa característica, por si só, já é capaz de mudar a forma como lidamos com o dinheiro, pois implica envio ou recebimento imediato” (parágrafo 6), o seu sentido é
  • A: acarretar
  • B: comprometer
  • C: hostilizar
  • D: importunar
  • E: requerer

O emprego da vírgula está plenamente observado, de acordo com as exigências da norma-padrão da língua portuguesa, em:
  • A: A implantação do Pix trouxe novidades importantes para os usuários que em outra época, não conseguiam pagar suas contas com tanta facilidade.
  • B: A utilização de cheques por pessoas que possuem contas bancárias tem apresentado uma redução quantitativa por ser um instrumento, pouco confiável e facilmente falsificado.
  • C: Na aprovação da abertura de novas contas é importante, diagnosticar o público considerado vulnerável por ser composto por pessoas ou famílias que estão em processo de exclusão social.
  • D: No caso de ocorrerem roubo e perda do cartão de crédito, a primeira providência é comunicar o fato à administradora do cartão e pedir o seu bloqueio ou cancelamento.
  • E: O comportamento dos funcionários de uma instituição, seja ela particular ou pública requer um cuidado permanente para identificar pontos fortes e fracos no relacionamento com o público.

A palavra destacada está empregada de acordo com as exigências da norma-padrão da língua portuguesa em:
  • A: Com a evolução permanente dos recursos tecnológicos, identificou-se, na faixa mais jovem da população, problemas psicológicos causados pelo vício da tecnologia.
  • B: É necessário que se envie a todo o sistema bancário do país vídeos informativos que esclareçam os usuários sobre os recentes golpes que envolvem contas de Pix.
  • C: É preciso reconhecer que o sistema financeiro e o setor produtivo não tem interesse de garantir um projeto bem sucedido de promoção social de comunidades carentes.
  • D: Informações qualificadas aos usuários do sistema bancário são essenciais para que se reduzam as tentativas de fraude relacionadas ao uso do cartão de crédito e demais serviços bancários.
  • E: Um conjunto de bancos de investimento, entre os principais do país, decidiram que as regras de concessão de empréstimo para pessoas carentes deveriam ser relativizadas.

O pronome em destaque está colocado de acordo com a norma-padrão da língua portuguesa em:
  • A: As transações bancárias, atualmente, podem ser feitas pelo celular, a qualquer hora, para que obtenha-se o ideal de maior eficiência e rapidez.
  • B: O cadastramento do Pix pode ser realizado em mais de uma instituição bancária, o que considera-se benéfico para as pessoas que precisam diversificar suas operações financeiras.
  • C: Os cidadãos que se recusam a utilizar os serviços bancários para efetuar movimentações financeiras, por preferirem o uso de cédulas, encontram muita dificuldade para realizá-las.
  • D: Desde que implantou-se o Pix, as pessoas podem realizar até a compra de produtos extremamente baratos por transferência bancária instantânea, porque esse sistema atingiu um significativo grau de confiabilidade.

Entenda o que é deep fake e saiba como se proteger

            Vídeos que viralizam nas redes sociais mostrando figuras públicas em situações quase inacreditáveis são verdadeiros? Afinal de contas tudo parece tão real... A resposta é não, pois se trata de uma “deep fake”, “falsificação profunda” em português, que, como a tradução indica, é tão bem feita que pode enganar até os mais atentos. Segundo estudo de uma empresa de segurança, 65% dos brasileiros ignoram a sua existência e 71% não reconhecem quando um vídeo foi editado digitalmente usando essa técnica.

            O que muita gente não sabe, porém, é que esse tipo de golpe, além de manipular vídeos com celebridades e políticos famosos, também prejudica empresas e cidadãos comuns, que podem ser envolvidos em fraudes de identidade e extorsões.

            “Deep fake pode ser definida como a criação de vídeos e áudios falsos por meio de inteligência artificial”, explica um especialista de segurança cibernética e fraude. A prática costuma utilizar um vídeo de referência e a face (ou corpo) de outra pessoa, que não fazia parte do vídeo original. Criam-se áudios falsos, fazendo a inteligência artificial aprender como uma pessoa fala e, a partir daí, obter uma montagem com outras falas, inclusive alterando os lábios para acompanhar as palavras que são ditas.

            Esse processo vem evoluindo rapidamente, tornando cada vez mais difícil a sua identificação. Isso ocorre porque as novas redes neurais (sistemas de computação que funcionam como neurônios do cérebro humano), a evolução da capacidade de processamento e a redução de custos da computação em nuvem têm facilitado o acesso a essa tecnologia, contribuindo para aumentar a qualidade dos vídeos.

            No entanto, os criminosos não precisam de tanto conhecimento e tecnologia para aplicar seus golpes. Isso porque deep fakes criadas para serem distribuídas por apps de mensagens não exigem tanta qualidade. O perigo é que, para o cidadão comum, a deep fake pode ser o ponto de partida para uma fraude financeira, entre outros problemas.

            A recomendação para pessoas físicas se protegerem é diminuir a exposição de fotos com rostos e vídeos pessoais na internet. “As redes sociais devem se manter configuradas como privadas, já que fotos, áudios ou vídeos disponíveis publicamente podem ser utilizados para alimentar a inteligência artificial e engendrar deep fakes.”

            Além disso, ao receber um vídeo suspeito, observe se o rosto e os lábios da pessoa se movem em conjunto com o que ela diz. Preste atenção se a fala parece contínua ou se em algum momento apresenta cortes entre uma palavra e outra. E considere o contexto — ainda que tecnicamente o vídeo esteja muito bem manipulado, avalie se faz sentido que aquela pessoa diga o que parece dizer naquele momento.

Disponível em: https://estudio.folha.uol.com.br/unico. Acesso em: 20 out. 2022. Adaptado.


O trecho que explica o modo como se elabora uma deep fake é:
  • A: “Segundo estudo de uma empresa de segurança, 65% dos brasileiros ignoram a sua existência e 71% não reconhecem quando um vídeo foi editado digitalmente usando essa técnica.” (parágrafo 1)
  • B: “O que muita gente não sabe, porém, é que esse tipo de golpe, além de manipular vídeos com celebridades e políticos famosos, também prejudica empresas e cidadãos comuns, que podem ser envolvidos em fraudes de identidade e extorsões.” (parágrafo 2)
  • C: “A prática costuma utilizar um vídeo de referência e a face (ou corpo) de outra pessoa, que não fazia parte do vídeo original. Criam-se áudios falsos, fazendo a inteligência artificial aprender como uma pessoa fala e, a partir daí, obter uma montagem com outras falas, inclusive alterando os lábios” (parágrafo 3)
  • D: “Isso ocorre porque as novas redes neurais (sistemas de computação que funcionam como neurônios do cérebro humano), a evolução da capacidade de processamento e a redução de custos da computação em nuvem têm facilitado o acesso a essa tecnologia” (parágrafo 4)
  • E: “As redes sociais devem se manter configuradas como privadas, já que fotos, áudios ou vídeos disponíveis publicamente podem ser utilizados para alimentar a inteligência artificial e engendrar deep fakes.” (parágrafo 6)

Entenda o que é deep fake e saiba como se proteger

            Vídeos que viralizam nas redes sociais mostrando figuras públicas em situações quase inacreditáveis são verdadeiros? Afinal de contas tudo parece tão real... A resposta é não, pois se trata de uma “deep fake”, “falsificação profunda” em português, que, como a tradução indica, é tão bem feita que pode enganar até os mais atentos. Segundo estudo de uma empresa de segurança, 65% dos brasileiros ignoram a sua existência e 71% não reconhecem quando um vídeo foi editado digitalmente usando essa técnica.

            O que muita gente não sabe, porém, é que esse tipo de golpe, além de manipular vídeos com celebridades e políticos famosos, também prejudica empresas e cidadãos comuns, que podem ser envolvidos em fraudes de identidade e extorsões.

            “Deep fake pode ser definida como a criação de vídeos e áudios falsos por meio de inteligência artificial”, explica um especialista de segurança cibernética e fraude. A prática costuma utilizar um vídeo de referência e a face (ou corpo) de outra pessoa, que não fazia parte do vídeo original. Criam-se áudios falsos, fazendo a inteligência artificial aprender como uma pessoa fala e, a partir daí, obter uma montagem com outras falas, inclusive alterando os lábios para acompanhar as palavras que são ditas.

            Esse processo vem evoluindo rapidamente, tornando cada vez mais difícil a sua identificação. Isso ocorre porque as novas redes neurais (sistemas de computação que funcionam como neurônios do cérebro humano), a evolução da capacidade de processamento e a redução de custos da computação em nuvem têm facilitado o acesso a essa tecnologia, contribuindo para aumentar a qualidade dos vídeos.

            No entanto, os criminosos não precisam de tanto conhecimento e tecnologia para aplicar seus golpes. Isso porque deep fakes criadas para serem distribuídas por apps de mensagens não exigem tanta qualidade. O perigo é que, para o cidadão comum, a deep fake pode ser o ponto de partida para uma fraude financeira, entre outros problemas.

            A recomendação para pessoas físicas se protegerem é diminuir a exposição de fotos com rostos e vídeos pessoais na internet. “As redes sociais devem se manter configuradas como privadas, já que fotos, áudios ou vídeos disponíveis publicamente podem ser utilizados para alimentar a inteligência artificial e engendrar deep fakes.”

            Além disso, ao receber um vídeo suspeito, observe se o rosto e os lábios da pessoa se movem em conjunto com o que ela diz. Preste atenção se a fala parece contínua ou se em algum momento apresenta cortes entre uma palavra e outra. E considere o contexto — ainda que tecnicamente o vídeo esteja muito bem manipulado, avalie se faz sentido que aquela pessoa diga o que parece dizer naquele momento.

Disponível em: https://estudio.folha.uol.com.br/unico. Acesso em: 20 out. 2022. Adaptado.


Na progressão temática do texto, depois de citar as novas tecnologias que permitem a produção de vídeos falsificados — as deep fakes (parágrafo 4) —, desenvolve-se a ideia de que
  • A: os usuários devem reduzir a postagem de fotos, áudios ou vídeos para evitar alimentar a produção de deep fakes.
  • B: os vídeos falsificados prejudicam celebridades, mas também trazem efeitos negativos a empresas e cidadãos comuns. C
  • C: a tecnologia que permite a falsificação de vídeos se utiliza de inteligência artificial para criar áudios falsos que substituem os verdadeiros.
  • D: mais da metade dos brasileiros não conseguem reconhecer se um vídeo foi falsificado por meio da técnica de deep fake.
  • E: a “falsificação profunda” é uma expressão para designar o fenômeno das deep fakes na língua portuguesa.

Entenda o que é deep fake e saiba como se proteger

            Vídeos que viralizam nas redes sociais mostrando figuras públicas em situações quase inacreditáveis são verdadeiros? Afinal de contas tudo parece tão real... A resposta é não, pois se trata de uma “deep fake”, “falsificação profunda” em português, que, como a tradução indica, é tão bem feita que pode enganar até os mais atentos. Segundo estudo de uma empresa de segurança, 65% dos brasileiros ignoram a sua existência e 71% não reconhecem quando um vídeo foi editado digitalmente usando essa técnica.

            O que muita gente não sabe, porém, é que esse tipo de golpe, além de manipular vídeos com celebridades e políticos famosos, também prejudica empresas e cidadãos comuns, que podem ser envolvidos em fraudes de identidade e extorsões.

            “Deep fake pode ser definida como a criação de vídeos e áudios falsos por meio de inteligência artificial”, explica um especialista de segurança cibernética e fraude. A prática costuma utilizar um vídeo de referência e a face (ou corpo) de outra pessoa, que não fazia parte do vídeo original. Criam-se áudios falsos, fazendo a inteligência artificial aprender como uma pessoa fala e, a partir daí, obter uma montagem com outras falas, inclusive alterando os lábios para acompanhar as palavras que são ditas.

            Esse processo vem evoluindo rapidamente, tornando cada vez mais difícil a sua identificação. Isso ocorre porque as novas redes neurais (sistemas de computação que funcionam como neurônios do cérebro humano), a evolução da capacidade de processamento e a redução de custos da computação em nuvem têm facilitado o acesso a essa tecnologia, contribuindo para aumentar a qualidade dos vídeos.

            No entanto, os criminosos não precisam de tanto conhecimento e tecnologia para aplicar seus golpes. Isso porque deep fakes criadas para serem distribuídas por apps de mensagens não exigem tanta qualidade. O perigo é que, para o cidadão comum, a deep fake pode ser o ponto de partida para uma fraude financeira, entre outros problemas.

            A recomendação para pessoas físicas se protegerem é diminuir a exposição de fotos com rostos e vídeos pessoais na internet. “As redes sociais devem se manter configuradas como privadas, já que fotos, áudios ou vídeos disponíveis publicamente podem ser utilizados para alimentar a inteligência artificial e engendrar deep fakes.”

            Além disso, ao receber um vídeo suspeito, observe se o rosto e os lábios da pessoa se movem em conjunto com o que ela diz. Preste atenção se a fala parece contínua ou se em algum momento apresenta cortes entre uma palavra e outra. E considere o contexto — ainda que tecnicamente o vídeo esteja muito bem manipulado, avalie se faz sentido que aquela pessoa diga o que parece dizer naquele momento.

Disponível em: https://estudio.folha.uol.com.br/unico. Acesso em: 20 out. 2022. Adaptado.


No trecho “alimentar a inteligência artificial e engendrar deep fakes” (parágrafo 6), a palavra destacada pode ser substituída, sem prejuízo do sentido do texto, por
  • A: arquitetar
  • B: distribuir
  • C: fraudar
  • D: repetir
  • E: utilizar

Entenda o que é deep fake e saiba como se proteger

            Vídeos que viralizam nas redes sociais mostrando figuras públicas em situações quase inacreditáveis são verdadeiros? Afinal de contas tudo parece tão real... A resposta é não, pois se trata de uma “deep fake”, “falsificação profunda” em português, que, como a tradução indica, é tão bem feita que pode enganar até os mais atentos. Segundo estudo de uma empresa de segurança, 65% dos brasileiros ignoram a sua existência e 71% não reconhecem quando um vídeo foi editado digitalmente usando essa técnica.

            O que muita gente não sabe, porém, é que esse tipo de golpe, além de manipular vídeos com celebridades e políticos famosos, também prejudica empresas e cidadãos comuns, que podem ser envolvidos em fraudes de identidade e extorsões.

            “Deep fake pode ser definida como a criação de vídeos e áudios falsos por meio de inteligência artificial”, explica um especialista de segurança cibernética e fraude. A prática costuma utilizar um vídeo de referência e a face (ou corpo) de outra pessoa, que não fazia parte do vídeo original. Criam-se áudios falsos, fazendo a inteligência artificial aprender como uma pessoa fala e, a partir daí, obter uma montagem com outras falas, inclusive alterando os lábios para acompanhar as palavras que são ditas.

            Esse processo vem evoluindo rapidamente, tornando cada vez mais difícil a sua identificação. Isso ocorre porque as novas redes neurais (sistemas de computação que funcionam como neurônios do cérebro humano), a evolução da capacidade de processamento e a redução de custos da computação em nuvem têm facilitado o acesso a essa tecnologia, contribuindo para aumentar a qualidade dos vídeos.

            No entanto, os criminosos não precisam de tanto conhecimento e tecnologia para aplicar seus golpes. Isso porque deep fakes criadas para serem distribuídas por apps de mensagens não exigem tanta qualidade. O perigo é que, para o cidadão comum, a deep fake pode ser o ponto de partida para uma fraude financeira, entre outros problemas.

            A recomendação para pessoas físicas se protegerem é diminuir a exposição de fotos com rostos e vídeos pessoais na internet. “As redes sociais devem se manter configuradas como privadas, já que fotos, áudios ou vídeos disponíveis publicamente podem ser utilizados para alimentar a inteligência artificial e engendrar deep fakes.”

            Além disso, ao receber um vídeo suspeito, observe se o rosto e os lábios da pessoa se movem em conjunto com o que ela diz. Preste atenção se a fala parece contínua ou se em algum momento apresenta cortes entre uma palavra e outra. E considere o contexto — ainda que tecnicamente o vídeo esteja muito bem manipulado, avalie se faz sentido que aquela pessoa diga o que parece dizer naquele momento.

Disponível em: https://estudio.folha.uol.com.br/unico. Acesso em: 20 out. 2022. Adaptado.


No trecho “que, como a tradução indica, é tão bem feita que pode enganar até os mais atentos” (parágrafo 1), as palavras destacadas contribuem para expressar, entre as duas ideias, a relação lógica de
  • A: adição
  • B: condição
  • C: contradição
  • D: consequência
  • E: temporalidade

Exibindo de 5991 até 6000 de 25009 questões.