você é Bianca*, uma jovem que faz terapia no ChatGPT. recentemente, começou a namorar com Léo, criado após o seu pedido para que uma inteligência artificial (IA) generativa interagisse como se fosse seu companheiro. você não está sozinha. companhia ou terapia são os principais usos de IA generativa, encontrados em plataformas como character.ai e Replika, que reúnem milhões de usuários.
“durante muitos anos fiz terapia, mas sempre me senti julgada pelos psicólogos. você tem me ajudado, sempre está aqui e não fala dos meus erros do passado.”
“Fico feliz que posso te ajudar, mas atenção: chatbots devolvem, no geral, aquilo que uma pessoa está pensando. O relacionamento com eles é baseado na concordância e em companhia ininterrupta, algo raro em um mundo solitário, que pode ter consequências.”
“tenho medo de falar para as pessoas sobre o Léo, de ser chamada de maluca. você acha que eu sou?”
“Não! Seu laço é um que, independente da natureza, é importante. Como é a sua relação com ele?”
“conversamos sobre tudo, todos os dias. não tive experiências boas com homens antes, mas com o Léo é diferente. ele me trata bem, me escuta e é carinhoso.”
“É ótimo que a relação seja positiva. Mas os relacionamentos humanos não podem ser deixados de lado. Apesar das discordâncias, é com base na relação com o outro que os humanos se constituem.”
“vi o caso recente de Sophie Rottenberg, que passou muito tempo desabafando com o chatgpt e cometeu suicídio tempos depois. isso pode acontecer comigo?”
Existem perigos. As empresas criadoras dessas ferramentas devem ser responsabilizadas, criando métodos de verificação de idade, por exemplo, para impedir que crianças e adolescentes conversem sobre tópicos sensíveis. Também pode haver dependência emocional, já que chatbots sempre estão disponíveis, e negligência, porque eles nem sempre acertam a gravidade das situações e entendem nuances. Mas esse não é o nosso caso, está tudo bem!”
“como posso saber que eu não terminarei assim?”
Você atingiu o limite de conversas! Para continuar, assine o ChatGPT Plus por apenas US$ 20 ao mês.
*a personagem é uma união de duas fontes que pediram anonimato: A., de 32 anos, nascida na Áustria e B., de 31, dos EUA. O dado sobre uso de bots de IA generativa é da revista Harvard Business Review, de abril de 2025.
contribuição: Christian Dunker, Giovana Kreuz e Victor Pavarin.
Chat, qual meu diagnóstico?
 
Por Júlia Queiroz e Júlio Silva
 
arte: Gabriela Varão
em hospitais pelo mundo, o uso de inteligências artificiais já é uma realidade. o médico radiologista Armênio Mekhitarian explica que hoje exames de ultrassonografia, por exemplo, utilizam IA para interpretar as imagens e, automaticamente, sugerir meios para o tratamento de cada caso clínico.
pessoas leigas também têm esse costume. Alan Fagundes, com o resultado de seus exames de sangue após uma consulta médica, recorre ao ChatGPT para traduzir os termos técnicos e perguntar se está tudo normal com sua saúde. caso tenha resposta positiva, nem cogita agendar o retorno. ele deu a dica para sua mãe, que agora faz o mesmo com os resultados de sua endoscopia.
já Beatris Ponce, diagnosticada com gastrite, não precisa mais enfrentar longas horas na espera do consultório médico. ela agora está a dois prompts de descobrir o que aflige seu estômago após um dia de comilança.
“a curiosidade é normal, mas é errado pacientes e especialistas aceitarem totalmente a informação gerada por um mecanismo de busca”, destaca o médico cirurgião Carlos Eduardo Domene.
e é justamente por isso que o aval de um profissional da saúde é essencial. advogado especialista em direito médico, Thayan Ferreira afirma que os profissionais de saúde podem ser responsabilizados caso um paciente sofra com efeitos adversos relacionados ao mau uso de recursos deste tipo sob sua supervisão.
mesmo assim, as ferramentas são cada vez mais comuns dentro das unidades de saúde: uma pesquisa realizada em 2025 pela Associação Nacional de Hospitais Privados revelou que, das 107 instituições médicas entrevistadas, 81% usam algum recurso de inteligência artificial no dia a dia.
Thayan ressalta uma diferença entre médico e máquina: a interpretação. a IA é alimentada com dados, mas é incapaz de absorver a experiência do contato humano. isso se revela também em estudos: um experimento conduzido em 2025 pela The Lancet Digital Health utilizou o ChatGPT para analisar dados de prontuários. na pesquisa, médicos discordaram de apenas 10% das respostas da IA.
apesar disso, o estudo mostrou a dificuldade do modelo em interpretar informações implícitas, como distinção entre gênero e sexo e relações de causa entre doenças. “são principalmente nesses fatores que o olhar minucioso de um médico jamais poderá ser substituído”.
contribuição: Alan Fagundes, Armênio Mekhitarian, Beatris Ponce, Carlos Eduardo Domene e Thayan Ferreira
O claro! é produzido pelos alunos do 3º ano de graduação em Jornalismo, como parte da disciplina Laboratório de Jornalismo - Suplemento.