Um vídeo que mostra um canguru sendo impedido de embarcar em um avião viralizou nas redes sociais nas últimas semanas, mas, na verdade a cena nunca aconteceu. Trata-se de um vídeo produzido por Inteligência Artificial, também conhecido como “deepfake”.
O animal, que ganhou simpatia nas redes e foi apelidado de “canguru de suporte emocional”, gerou muitos relatos de internautas confessando que acreditavam se tratar, inicialmente de uma situação verdadeira. Assista:
“Aliviado em saber que a história terminou bem e o canguru de suporte emocional teve um final feliz depois do perrengue para embarcar”, diz um post no X.
Confira:
Finally he boarded 😂 pic.twitter.com/vhRgJkDtZN
— Wholesome Side of 𝕏 (@itsme_urstruly) June 2, 2025
Canguru no aeroporto: do que se trata o vídeo?
Na cena viralizada, uma passageira aparece discutindo com uma funcionária em um aeroporto, enquanto um canguru segura um bilhete de embarque e usa um equipamento semelhante ao de animais de suporte emocional e cães-guias. O vídeo passou a ser compartilhado em redes como X, TikTok e Instagram, com legendas que indicavam que o canguru teria sido impedido de embarcar em um voo.
“Sim, num primeiro momento eu acreditei no vídeo do canguru de suporte emocional! E digo mais: fiquei com pena!”, escreveu um internauta.
“Acabei de descobrir que o vídeo do canguru segurando uma passagem aérea é IA, meu coração já foi quebrado e não são nem 10 da manhã”, compartilhou outro.
A situação divertiu o público, e logo novas “cenas” do canguru passaram a circular pelas redes sociais. Em uma nova versão do vídeo, também gerada por IA, o animal aparece embarcado no avião, e usuários comemoraram a “conquista”.
Como identificar vídeos falsos nas redes sociais?
Vídeos como o do “canguru de suporte emocional”, chamados também de “deepfakes”, são cada vez mais comuns na internet. O termo é uma junção de “deep”, que se refere ao aprendizado profundo de IA, e “fake”, que indica que o conteúdo não é real.
Segundo o Government Accountability Office, órgão do Poder Legislativo dos EUA, os métodos para identificar deepfakes usados por pesquisadores e empresas de internet incluem analisar os vídeos em busca de “rastros” digitais ou detalhes que conteúdos falsos não conseguem imitar de forma realista, como o piscar de olhos ou tiques faciais.
A entidade também recomenda reparar em inconsistências nos vídeos, como brincos diferentes entre si e expressões faciais sem definição.
Apesar de ser usado também em tom humorístico, os deepfakes podem ser usados ilegalmente, em contextos de crimes cibernéticos, fraude, chantagens e ameaças.