A Samsung conseguiu desenvolver uma tecnologia que consegue fazer vídeos falsos, a partir de uma única imagem, utilizando Inteligência Artificial (IA). Os softwares de Deepfake imitam movimentos reais que humanos fariam. O projeto da empresa foi desenvolvido em um laboratório de pesquisas na Rússia e consegue fazer animações de diferentes rostos, usando até mesmo uma pintura. O vídeo abaixo mostra como a tecnologia funciona e qual foi o método desenvolvido pela equipe para criar as animações:
O laboratório de pesquisas da Samsung está chamando o seu programa de "Talking Heads", que significa em tradução livre: cabeças falantes. Esse nome foi escolhido devido ao tipo de vídeo que é produzido, que é como se simulasse um aceno para as redes neurais. O aprendizado de máquina tenta imitar a linha de raciocínio do cérebro humano para criar os movimentos que é feito em vídeo.
A tecnologia utiliza aprendizado de máquina para fazer com que imagens tenham movimento. Não é necessário que a pessoa já tenha feito algo parecido anteriormente, o sistema faz artificialmente com o uso de uma foto qualquer, mesmo que esteja em apenas um ângulo.
Startup canadense consegue recriar perfeitamente a voz de Joe...
A tecnologia funciona como um "clone de voz" e é uma das mais realistas já apresentadas
Geralmente esse tipo de tecnologia usa diversas imagens para chegar a algum movimento que pareça natural, mas esse não é o caso do sistema da Samsung. Os pesquisadores conseguiram fazer uma animação do Monalisa inclusive, clique aqui para ver. São feitos três mini clips diferentes usando apenas a pintura famosa de Da Vinci. O vídeo além de simular os movimentos, mostra expressões no rosto, comuns de qualquer pessoa.
Apesar dos pesquisadores usarem sem fim de causar nenhum dano, assim como qualquer nova tecnologia, ela também pode ser usada para fins maliciosos. Os usos de IA para criação e adulteração de imagem podem ser muito perigosos se usado para enganar as pessoas. Como em fake news ou usados para se vingar de alguém, expondo sua imagem em alguma cena falsa que pode causar constrangimento.
Em entrevista para a CNET, Hany Farid um pesquisador especializado em análise forense de deepfakes, diz estar preocupado com o avanço dessas tecnologias. Ele teme que no futuro não seja mais possível diferenciar o que foi criado artificialmente e o que de fato é real.
Via: CNET