em hospitais pelo mundo, o uso de inteligências artificiais já é uma realidade. o médico radiologista Armênio Mekhitarian explica que hoje exames de ultrassonografia, por exemplo, utilizam IA para interpretar as imagens e, automaticamente, sugerir meios para o tratamento de cada caso clínico.
pessoas leigas também têm esse costume. Alan Fagundes, com o resultado de seus exames de sangue após uma consulta médica, recorre ao ChatGPT para traduzir os termos técnicos e perguntar se está tudo normal com sua saúde. caso tenha resposta positiva, nem cogita agendar o retorno. ele deu a dica para sua mãe, que agora faz o mesmo com os resultados de sua endoscopia.
já Beatris Ponce, diagnosticada com gastrite, não precisa mais enfrentar longas horas na espera do consultório médico. ela agora está a dois prompts de descobrir o que aflige seu estômago após um dia de comilança.
“a curiosidade é normal, mas é errado pacientes e especialistas aceitarem totalmente a informação gerada por um mecanismo de busca”, destaca o médico cirurgião Carlos Eduardo Domene.
e é justamente por isso que o aval de um profissional da saúde é essencial. advogado especialista em direito médico, Thayan Ferreira afirma que os profissionais de saúde podem ser responsabilizados caso um paciente sofra com efeitos adversos relacionados ao mau uso de recursos deste tipo sob sua supervisão.
mesmo assim, as ferramentas são cada vez mais comuns dentro das unidades de saúde: uma pesquisa realizada em 2025 pela Associação Nacional de Hospitais Privados revelou que, das 107 instituições médicas entrevistadas, 81% usam algum recurso de inteligência artificial no dia a dia.
Thayan ressalta uma diferença entre médico e máquina: a interpretação. a IA é alimentada com dados, mas é incapaz de absorver a experiência do contato humano. isso se revela também em estudos: um experimento conduzido em 2025 pela The Lancet Digital Health utilizou o ChatGPT para analisar dados de prontuários. na pesquisa, médicos discordaram de apenas 10% das respostas da IA.
apesar disso, o estudo mostrou a dificuldade do modelo em interpretar informações implícitas, como distinção entre gênero e sexo e relações de causa entre doenças. “são principalmente nesses fatores que o olhar minucioso de um médico jamais poderá ser substituído”.
contribuição: Alan Fagundes, Armênio Mekhitarian, Beatris Ponce, Carlos Eduardo Domene e Thayan Ferreira
Quando os olhos não veem a verdade
 
Por Diego Macedo e Gabrielle Torquato e Tainah Ramos
 
Conceito: Bianca Muniz/Desenho: Bianca Muniz
Jovem, norte-americano, e uma mensagem importante a passar para população de seu país: “Vote, porque eu não posso”. As imagens de Joaquin Oliver foram amplamente divulgadas através de um comercial nos meses que antecederam as eleições presidenciais dos Estados Unidos em 2020 e, a princípio, poderiam se passar como mais uma campanha de incentivo ao voto, mas elas carregam uma diferença importante das demais: Joaquin está morto.
O jovem de 16 anos foi uma das vítimas do massacre da escola de Parkland, na Flórida, no ano de 2018, e por isso sua mensagem desincentiva o voto em candidatos armamentistas. O vídeo causou impacto nas redes sociais e só foi possível ser realizado graças a uma técnica conhecida como deepfake, tecnologia que usa Inteligência Artificial (IA) e um algoritmo de “aprendizado profundo” que permite que computadores substituam o rosto de alguém pela imagem de outra pessoa através da alteração de cores, proporções, texturas e movimentos faciais.
O alto grau de realismo que alguns deepfakes conseguem alcançar foi o que iniciou um alerta para a possibilidade de este ser mais um passo na evolução das fake news. Isso porque diferente de outros formatos, os vídeos têm um apelo visual muito maior e conseguem enganar com facilidade. O famoso “ver para crer”.
Segundo explica Ana Erthal, doutora em Comunicação Social pela UERJ e especialista na área de comunicação multissensorial, a visão é um dos cinco sentidos que mais damos importância. Ela adquiriu predominância durante a Modernidade com muita influência da arte, uma vez que foi nesta época que os pintores passaram a usar a perspectiva para fazer retratos mais fiéis de pessoas e ambientes.
Até hoje, cerca de 250 anos depois, esta influência está tão presente no cotidiano que é difícil para o ser humano descrever uma experiência que não seja visual. Nessa conta, a tecnologia agrega alguns pontos ao criar ainda mais apelos visuais através das redes sociais. “A imagem atua hoje na sociedade como código predominante na comunicação”, afirma Ana.
Por outro lado, apesar de tão difundidas no mundo digital, o uso das imagens também esbarra em restrições legais. A questão se acirrou ainda mais com as leis de proteção de dados, explica Christian Perrone, coordenador da área de Direito e Tecnologia do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio).
De acordo com Perrone, ao veicular uma fotografia ou um vídeo na internet, o usuário transmite dados e o direito de imagem se sobrepõe também às informações pessoais – sobre quem pode usar, como pode usar, em qual circunstância e onde ficarão armazenados.
O grande temor sobre as deepfakes é a perda de noção da realidade a ponto de que não se consiga mais discernir o que é real e o que é IA, já que nem mesmo os olhos provam a verdade.
Colaboraram:
Ana Erthal, doutora em Comunicação Social na linha de Tecnologia de Comunicação e Cultura pela UERJ
Dima Shveits, co-fundador do REFACE APP, aplicativo gratuito de face swapping
Ivan Paganotti, fundador do projeto Vaza Falsiane
Christian Perrone, coordenador da área de Direito e Tecnologia do Instituto de tecnologia e sociedade
O claro! é produzido pelos alunos do 3º ano de graduação em Jornalismo, como parte da disciplina Laboratório de Jornalismo - Suplemento.