Nos últimos meses, clínicas e consultórios médicos têm enfrentado um fenômeno curioso – e preocupante: pacientes insatisfeitos, muitas vezes mal informados ou com intenções questionáveis, passaram a usar respostas geradas por ferramentas de inteligência artificial, como o ChatGPT, para tentar intimidar médicos ou obter documentos e serviços que não foram contratados.


Trata-se de um novo formato de ameaça velada, com aparência de legalidade, mas com pouca ou nenhuma aderência à realidade jurídica dos fatos.


⚖️ IA não é fonte de direito

Apesar de parecerem “juridicamente bem embasados”, muitos desses textos produzidos por IA contêm interpretações genéricas, descontextualizadas e, em alguns casos, até equivocadas sobre leis como:

  • Lei 13.787/2018 (prontuário médico),

  • Código de Defesa do Consumidor,

  • LGPD – Lei Geral de Proteção de Dados,

  • Resoluções do CFM.

Acontece que essas ferramentas não substituem a atuação de advogados, nem conhecem os detalhes contratuais, clínicos ou éticos envolvidos em cada atendimento. O Direito não se faz apenas com textos bem escritos – se faz com provas, responsabilidade técnica, boa-fé e contexto real.


👨‍⚕️ Médicos estão sendo intimidados por solicitações abusivas

Diversos profissionais da saúde têm relatado casos em que pacientes exigem:

  • Laudos médicos completos de exames não contratados;

  • Informações sigilosas fora dos canais apropriados;

  • Documentos com responsabilidade técnica sem pagamento;

  • E até ameaças de "denúncias" ou "danos morais" por negativas que são legítimas e amparadas pela lei.

Tudo isso, com base em “modelos jurídicos” copiados de sites ou gerados por inteligência artificial. É como se o simples uso de uma tecnologia substituísse o contrato firmado, o diálogo real e os limites éticos da relação médico-paciente.


❌ Ameaçar com texto bonito não é direito

Utilizar textos produzidos por IA para pressionar clínicas e profissionais configura, muitas vezes, abuso de direito e pode ser combatido com firmeza, sobretudo quando se tenta forçar a entrega de documentos que envolvem responsabilidade técnica do médico, como laudos interpretativos, pareceres e prescrições.

A legislação brasileira não impõe ao médico o dever de emitir laudo técnico quando este não foi contratado, e o prontuário só pode ser entregue ao próprio paciente ou mediante autorização legal válida.


🛡️ Como os médicos devem agir:

  • Registrar todas as comunicações com o paciente (e-mails, mensagens, áudios);

  • Exigir autorização formal com firma reconhecida ou assinatura eletrônica válida para entrega de prontuário a terceiros;

  • Não ceder à pressão de ameaças infundadas com base em textos copiados;

  • Consultar um advogado especializado em Direito Médico antes de responder a qualquer notificação;

  • Utilizar a documentação prévia da consulta (como mensagens de orientação ou termos de consentimento) para demonstrar a boa-fé.


📌 Conclusão

O avanço da tecnologia é inegável e útil quando bem usado, inclusive no direito. No entanto, transformar IA em instrumento de ameaça e distorção do que é devido prejudica não apenas o médico, mas o próprio paciente – que perde o vínculo de confiança e humanização da relação clínica.

No Direito, o que vale são os fatos, os contratos assinados, a prova documental e o respeito mútuo. Inteligência artificial pode auxiliar, mas não legitima abusos.

Médicos não são reféns de scripts prontos. São profissionais com deveres, sim, mas também com direitos que precisam ser defendidos.


Quer saber como se proteger? Entre em contato conosco!


← Votar