Visitantes

50 Online
178807 Visitas

Locutor no Ar

announcer

É #FAKE que ataque terrorista em praia na Austrália tenha sido encenado; foto de homem com 'sangue falso' foi criada com IA

É #FAKE foto de 'ator' sendo maquiado com sangue falso em suposta encenação de atentado na Austrália; trata-se de IA Reprodução Circula nas redes sociais ...

É #FAKE que ataque terrorista em praia na Austrália tenha sido encenado; foto de homem com 'sangue falso' foi criada com IA
É #FAKE que ataque terrorista em praia na Austrália tenha sido encenado; foto de homem com 'sangue falso' foi criada com IA (Foto: Reprodução)

É #FAKE foto de 'ator' sendo maquiado com sangue falso em suposta encenação de atentado na Austrália; trata-se de IA Reprodução Circula nas redes sociais a foto de um homem sendo maquiado com sangue falso, no que seria uma prova de que o ataque deixou 15 mortos neste domingo (14) em uma praia na Austrália foi encenado. É #FAKE. selo fake g1 🛑 Como é a imagem? Publicado nesta segunda-feira (15) no X, onde alcançou mais de 7,6 milhões de visualizações, o post tem a seguinte legenda, em inglês:"O fato de terem nos enganado novamente mostra que ainda somos gentios muito retardados. Foi tudo falso. Eles eram atores". A imagem mostra um homem sentado no chão e dando risada, enquanto uma supostamente mulher aplica sangue falso no rosto dele – há manchas também nos braços e na camiseta. Ao redor, há tripés e cabos espalhados pela grama, além de uma mesa com pincéis e kits de sangue cenográfico, como se fosse um set de filmagem. O conteúdo falso foi criado com inteligência artificial (IA) — leia mais abaixo — e viralizou após atiradores deixaram 15 pessoas mortas e 40 feridas durante uma celebração do festival judaico de Hanukkah, neste domingo, na praia de Bondi, em Sydney. ⚠️ Por que isso é falso? O Fato ou Fake submeteu o vídeo ao SynthID Detector, ferramenta do Google que identifica conteúdo gerados com a IA da própria empresa. Resultado da análise: "Feito com IA do Google (vídeo) – Synth ID identificado em todo ou parte do conteúdo carregado" . Essa tecnologia verifica uma marca d'água aplicada diretamente em vídeos, imagens ou áudio fabricados sinteticamente. A técnica é imperceptível para humanos, mas rastreável pelo sistema. No caso analisado, o resultado apontou esse indicador em quase todo o quadro do registro (veja abaixo). SynthID detectou nos pontos azuis a presença da marca d'água de IAs do Google. SynthID O homem da imagem se parece com Arsen Ostrovsky, um israelense atingido durante o tiroteio entrevistado pela Nine News, emissora de TV local, enquanto ainda estava com o rosto coberto de sangue e enfaixado. No entanto, o conteúdo viral apresenta diferenças com relação a registros autênticos: Na imagem falsa, ele aparece com uma grande mancha de sangue na gola da camiseta, ao passo que, no material verdadeiro, há apenas uma pequena marca no local. Além disso, o conteúdo real mostra que Ostrovsky usa uma camisa cinza com a inscrição "United States", além do símbolo da Marinha dos Estados Unidos. No enganoso, o emblema não é o mesmo, e as letras aparecem distorcidas. Letras de camiseta aparecem distorcidas em imagem gerada com IA. Reprodução É #FAKE foto de 'ator' sendo maquiado com sangue falso em suposta encenação de atentado na Austrália; trata-se de IA Reprodução Veja também É #FAKE vídeo de idosos em asilo explicando fantasias de Halloween nos EUA É fake vídeo de idosos explicando fantasias cômicas para Halloween; tudo foi feito com IA VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)