Médicos “clonados” por IA estão vendendo tratamentos duvidosos
Centenas de vídeos deepfake mostram profissionais de saúde supostamente recomendando produtos
Em meio a avanços tecnológicos, surge um fenômeno que mexe com a confiança: médicos “clonados” por IA aparecem em vídeos que simulam recomendações de tratamentos. A combinação de aparência realista e promessas de soluções rápidas acende um alerta sobre o que consumimos como informação de saúde.
Ainda que pareça ficção, a realidade é mais simples e preocupante: os conteúdos são em sua maioria exercícios de deepfake que apontam para produtos ou procedimentos sem respaldo científico claro. Centenas de vídeos dessa natureza circulam, gerando desinformação e colocando o leitor no meio de uma curva de confirmação enganosa.
No dia a dia, a leitura crítica é a melhor defesa. Perguntas simples como “qual é a fonte?”, “há estudos que comprovam isso?” e “quem está por trás da recomendação?” podem evitar decisões precipitadas diante de vídeos aparentemente confiáveis.
Especialistas pedem cautela e incentivam checagem rigorosa de conteúdo, além de ferramentas que identifiquem conteúdo manipulado. No fim das contas, a tecnologia avança; cabe a cada leitor manter o olhar atento e exigir evidência antes de acreditar em qualquer sugestão médica veiculada online.