15/08/2023 07:59 - DECIO TERROR FILHO
Comentário: Esta é uma questão típica da banca Cesgranrio, a chamada interpretação localizada, pois especifica a partir de qual parágrafo se deve interpretar.
A questão pede que ideia foi desenvolvida depois de o autor ter citado as novas tecnologias que permitem a produção de vídeos falsificados, informação que se encontra no 4º parágrafo.
A alternativa (A) é a correta, pois, no 6º parágrafo, o autor faz recomendação para pessoas físicas se protegerem, diminuindo a exposição de fotos com rostos e vídeos pessoais na internet.
As demais alternativas estão erradas, pois as informações se encontram antes do 4º parágrafo.
Na alternativa (B), a informação está no 2º parágrafo.
Na alternativa (C), a informação está no 3º parágrafo.
Na alternativa (D), a informação está no 1º parágrafo.
Na alternativa (E), a informação está no 1º parágrafo.
Na reprodução do texto abaixo, confirme cada informação sublinhada das alternativas:
Vídeos que viralizam nas redes sociais mostrando figuras públicas em situações quase inacreditáveis são verdadeiros? Afinal de contas tudo parece tão real... A resposta é não, pois se trata de uma “deep fake”, “falsificação profunda” em português, que, como a tradução indica, é tão bem feita que pode enganar até os mais atentos. Segundo estudo de uma empresa de segurança, 65% dos brasileiros ignoram a sua existência e 71% não reconhecem quando um vídeo foi editado digitalmente usando essa técnica.
O que muita gente não sabe, porém, é que esse tipo de golpe, além de manipular vídeos com celebridades e políticos famosos, também prejudica empresas e cidadãos comuns, que podem ser envolvidos em fraudes de identidade e extorsões.
“Deep fake pode ser definida como a criação de vídeos e áudios falsos por meio de inteligência artificial”, explica um especialista de segurança cibernética e fraude. A prática costuma utilizar um vídeo de referência e a face (ou corpo) de outra pessoa, que não fazia parte do vídeo original. Criam-se áudios falsos, fazendo a inteligência artificial aprender como uma pessoa fala e, a partir daí, obter uma montagem com outras falas, inclusive alterando os lábios para acompanhar as palavras que são ditas.
Esse processo vem evoluindo rapidamente, tornando cada vez mais difícil a sua identificação. Isso ocorre porque as novas redes neurais (sistemas de computação que funcionam como neurônios do cérebro humano), a evolução da capacidade de processamento e a redução de custos da computação em nuvem têm facilitado o acesso a essa tecnologia, contribuindo para aumentar a qualidade dos vídeos.
No entanto, os criminosos não precisam de tanto conhecimento e tecnologia para aplicar seus golpes. Isso porque deep fakes criadas para serem distribuídas por apps de mensagens não exigem tanta qualidade. O perigo é que, para o cidadão comum, a deep fake pode ser o ponto de partida para uma fraude financeira, entre outros problemas.
A recomendação para pessoas físicas se protegerem é diminuir a exposição de fotos com rostos e vídeos pessoais na internet. “As redes sociais devem se manter configuradas como privadas, já que fotos, áudios ou vídeos disponíveis publicamente podem ser utilizados para alimentar a inteligência artificial e engendrar deep fakes.”
Além disso, ao receber um vídeo suspeito, observe se o rosto e os lábios da pessoa se movem em conjunto com o que ela diz. Preste atenção se a fala parece contínua ou se em algum momento apresenta cortes entre uma palavra e outra. E considere o contexto — ainda que tecnicamente o vídeo esteja muito bem manipulado, avalie se faz sentido que aquela pessoa diga o que parece dizer naquele momento.
Gabarito: A