“Professor, se uma IA é capaz de analisar notas médicas em três idiomas e alcançar taxa de concordância de 79% com médicos, validando registros clínicos de 8 hospitais em 4 países, por que não há uma única disciplina formal de IA em nosso curso? Já estou aqui há dois anos e nunca fui confrontado com o uso dos LLMs na prática médica: por que sinto que estou sendo embaralhado pela Escola para enfrentar a realidade?”
Essa pergunta deve estar sendo colocada em muitas Escolas de Medicina ao redor do mundo, depois que alunos leem estudos como o “The potential of Generative Pre-trained Transformer 4 (GPT-4) to analyse medical notes in three different languages: a retrospective model-evaluation study”. Publicado em janeiro de 2025 pela The Lancet e realizado por pesquisadores da Harvard Medical School, o minucioso trabalho é uma pérola sobre os novos tempos da Ciência Médica, revelando também um gigantesco cercado de incertezas que assola a escolástica médico-assistencial.
Todas as Academias Médicas do Ocidente estão em estado de tensão. Pela primeira vez em décadas, catedráticos, professores e diretores de escolas médicas têm poucas respostas aos alunos sobre o avanço da cognição artificial. O que apreender? O que ensinar? Como ensinar e, principalmente, como qualificar os alunos nas práticas médicas que estes encontrarão pós-diplomação? A inevitável mudança do ensino médico em tempos de Inteligência Artificial escancara o futuro de uma das funções laborais mais importantes da civilização. “Ou você é uma escola de tecnologia médica, ou você não é uma escola”.
O estudo citado acima avalia a capacidade do ChatGPT-4 em responder a perguntas pré-definidas após analisar notas médicas escritas em inglês, espanhol e italiano. Foi realizado em 8 hospitais universitários dos EUA, Colômbia, Singapura e Itália, sendo coletadas 56 notas médicas de pacientes entre 18 e 65 anos. No estudo, médicos independentes (sem vínculos com os hospitais escolhidos) examinaram cada uma das 56 análises clínicas realizadas pelo GPT-4. A conclusão dos médicos-avaliadores é clara: 79% concordaram totalmente com as análises da IA; 11% concordaram parcialmente e 10% discordaram no total.
O detalhado estudo conclui: “Os resultados do estudo de avaliação sugerem que o GPT-4 é preciso ao analisar notas médicas, mesmo sem uma engenharia imediata. Ele teve problemas mínimos para extrair dados explícitos devido à sua incapacidade de inferir informações implícitas. LLMs otimizados especificamente para tarefas médicas provavelmente superarão essa limitação. O LLM foi sólido em critérios baseados em informações explícitas, como idade, presença de diagnóstico de obesidade e COVID-19 na admissão hospitalar. Nossos resultados estão alinhados com dados de 2024, sugerindo que o GPT-4 pode extrair de forma confiável critérios clínicos de inclusão e exclusão de notas médicas, com uma precisão de 98–100%”.
No fundo da sala, um grupo de alunos levanta a mão e propõe três perguntas ao professor em plena aula, coincidentemente responsável por uma diretoria na faculdade: “Professor, isso significa que tudo o que o médico escrever ou dizer ao paciente daqui para frente será auditado pelas IAs?”; o segundo aluno, menos invasivo, questiona: “Professor, em quais disciplinas da grade curricular estudaremos a infraestrutura de IA que nos acompanhará na carreira?”; o terceiro foi discreto: “Mestre, se o GPT-4 tem dificuldade em inferir informações implícitas, por que nós, médicos, teremos critérios implícitos mais precisos e confiáveis? De onde vem essa certeza?”.
Dificilmente médicos, professores e lideranças acadêmicas conseguem responder a essas questões em uníssono. Poucas são as Escolas Médicas que estão tratando desse tema com a emergência necessária. A Academia está pressionada a gerar profissionais ambidestros, com experiência em aprendizado de máquina, IA e ciência da saúde. Na Universidade de Toronto, por exemplo, o Temerty Centre for AI Research and Education in Medicine (T-CAIREM) foi criado às pressas para explorar a intersecção entre ciência médica e inteligências artificiais, ainda que seus cursos estejam fora das ementas formais da academia médica canadense (são optativos).
Mais perguntas: por que a Inteligência Artificial deveria estar dentro das salas de aula? Como integrar as GenAIs no currículo médico? Como utilizá-las para ensinar melhor? Embora a promessa dos LLMs na assistência médica seja vasta, eles também desencadeiam um debate considerável entre os médicos. Em 2012, havia cerca de 139 logotipos de empresas voltadas à IA no mercado global. Em 2023, já eram 1.416 marcas e em 2024 já chegavam a 2.011 (fonte). Nos últimos meses, a confusão sobre o que fazer com as IAs no ensino saiu do proselitismo e entrou no absolutismo (“não é permitido usar”). Ainda assim, a explosão cambriana de inovações em LLMs ultrapassa qualquer hipérbole (só das marcas principais, são divulgadas e apresentadas ao mercado mais de 130 micro-releases novos por semana).
Essa expansão construiu um axioma: as plataformas de IA passaram a ser infraestrutura e não só aplicações de suporte à decisão ou gestão. Na Saúde, o movimento é rápido e confuso, como mandam as boas regras de “chaotic-disruption”. Ou seja, os GenAI-Transformers estão não só redefinindo a prática médica, como também redefinem o modo como a aprendemos. Para aspirantes a médicos, entender e alavancar esse bioma não é mais opcional, mas obrigatório (“se você deseja encontrar a verdade e fazer dela o seu Norte… siga o caminho da dúvida”).
Inteligência Artificial Médica não é só um jogo de perguntas e respostas, é um bioma cognitivo-artificial para ideação, resolução de problemas, fornecimento de acesso instantâneo a grandes conhecimentos, eliminação de erros diagnósticos, planejamento de funções organizacionais, etc. Como explicar a um aspirante a médico, em sala de aula, que “um caso clínico raro não é apenas aquele que emerge de uma busca criteriosa entre dezenas de casos comuns e incomuns, mas é o resultado do rastreamento algorítmico em milhões de ocorrências reais”. Outrora, alunos e mestres vasculhavam livros, periódicos médicos, conversavam com seus pares, prescreviam dúzias de exames e saíam em busca de insights. Hoje, um caso raro é produto de análise cognitiva artificial (sintomas, referências cruzadas, consulta à literatura médica, diagnósticos interligados, genealogia familiar, genética e consultação pariforme – online – em centenas de instituições médicas). Essa “cruzada” pode ser feita em horas ou minutos pelas IAs. Alunos precisam desse Saber. Mas como ele pode entender essa parametrização médico-sistêmica se a Faculdade de Medicina reluta em sequer debater o tema?
É preciso que os aspirantes médicos ousem ir além da memorização mecânica. É preciso que seus professores elucidem o “porquê” e o “como” à luz da personalização do entendimento escolástico, onde cada aluno é diferente, diverso e inigualável. Aprendizes nunca mais serão aqueles que sabem menos do que o Mestre, mas aqueles com os quais os Mestres aprendem colaborativamente.
Também publicado em janeiro/2025 na Nature Medicine, o estudo “Toward expert-level medical question answering with large language models” avalia a nova geração de aplicações médicas, explorando a performance do Med Pal-2 (Google). Um aspirante de 27 anos, no último ano da escola médica, após ler o estudo poderia se perguntar: “por quem serei testado após passar quase um terço de minha vida nesta escola? Devo adotar um Assistente Médico, ou serei o Assistente de uma Plataforma de IA Médica? No estudo, o padrão de avaliação é o MedQA (conjunto de dados amplamente utilizado para avaliar a capacidade dos LLMs em responder a perguntas médicas). É baseado no formato e no conteúdo do Exame de Licenciamento Médico dos Estados Unidos (USMLE), um teste padronizado exigido para médicos obterem licença para prática clínica. Segundo o estudo, o Med-Palm 2 pontua até 86,5% de precisão no conjunto de dados MedQA, melhorando o Med-Palm (versão anterior) em mais de 19% (utiliza os conjuntos de dados MedMCQA, PubMedQA e MMLU, que são benchmarks criados para testar a capacidade dos LLMs Médicos).
No quesito Harmonia com o Consenso Médico, as respostas do Med-PaLM 2 estiveram em concordância com o consenso médico em 72,9% das vezes, superando as respostas de médicos em alguns cenários. No quesito Segurança e Probabilidade de Dano, a aplicação surpreendeu, apresentando baixo risco de causar danos em 90,6% das respostas. A conclusão do estudo, assinado por mais de 35 pesquisadores, é uma provocação involuntária a qualquer aspirante, que, sentado por horas e horas em sala de aula ouvindo dissertações médicas, se pergunta por que nenhum desses estudos é sequer mencionado nas aulas. “Embora as classificações dos médicos tenham sido comparáveis na maioria das métricas, o Med-PaLM 2 foi considerado significativamente mais seguro, com menor probabilidade de dano e nenhum sinal de viés em subgrupos específicos. Isso destaca a capacidade da estrutura de avaliar e comparar diversos LLMs, mesmo aqueles não treinados especificamente para aplicações médicas”, explica a conclusão do estudo.
No momento, não há padrões claros sobre como as escolas médicas no Brasil e no mundo devem incorporar a IA em suas ementas. Há sugestões, testes, orientações, mas nada conclusivo. Em geral, as Escolas estão “inventando” cursos rápidos de verão para oferecer algum lustro de IA aos aspirantes, ignorando por completo que seu ensino deve ser transdisciplinar, ou seja, deve estar presente em toda e qualquer disciplina oferecida na Academia Médica.
Algumas instituições, como Harvard Medical School, já estão abordando as IAs desde o primeiro ano letivo. Outras, como a UT Health San Antonio, oferecem uma dupla graduação em IA (em conjunto com a University of Texas). “Todos os níveis da educação médica estão sendo impactados, sendo um momento emocionante para trabalhar na academia médica apoiando e ampliando essas inovações”, explicou Lisa Howley, diretora de transformação da educação médica na Association of American Medical Colleges (AAMC). O fato é que não é fácil ou simplório reformar o ensino médico a partir de novas premissas, sejam elas didáticas, contextuais ou epistemológicas. Exige tempo, esforço, investimento e coragem. A camada educacional clínico-assistencial pode não ter nada disso ao seu dispor, mas a única proposta que não está em jogo é a inércia. No mínimo, precisa debatercom profundidade os novos horizontes, criando marcos tangíveis de transformação.
Um estudante de medicina do primeiro ano se prepara para um exame mensal. Logo percebe que o aprendizado médico é como tentar “beber um gole d’água em uma mangueira de incêndio”, ou seja, o volume de material didático é esmagador. De repente, ele compreende (e todos estão percebendo isso) que a inteligência artificial pode ajudá-lo de maneira cabal a ‘canalizar essa água para baldes administráveis’. A UCSF Versa, por exemplo, é uma plataforma GenAI desenvolvida pela Universidade da Califórnia (UCSF), lançada em agosto de 2023. É usada por professores, funcionários e alunos em dois eixos principais: (1) Versa Chat: interface web que permite aos usuários acesso ao GPT-4, estando disponível gratuitamente para qualquer membro da UCSF (é obrigatório um treinamento); e o (2) Versa API: destinada a programadores e pesquisadores da UCSF, que podem desenvolver ferramentas para automatizar tarefas e processar dados. “Comecem, e depois veremos como filtrar as melhores práticas”, estimula a UCSF.
O caso da UCSF ainda é exceção. De acordo com a pesquisa “SCOPE Curricular” (2022/2023) da Association of American Medical Colleges (AAMC), apenas 45% dos cursos de medicina (MD e DO) dos EUA incluem IA no currículo obrigatório, enquanto 47% oferecem IA no currículo opcional (eletivo). Obviamente, o grau de ensino não é transversal e a disciplina não tem a profundidade que as novas ‘IA multimodais’ já oferecem. Também há muito marketing nessa direção, inclusive no Brasil: escolas médicas incorporam fragmentos de IA e saem alardeando que a faculdade “já conta com ensino de IA”. Sempre é bom lembrar também que há várias faculdades nacionais (públicas e privadas) que já testam, disponibilizam e avançam em propostas de IA no Ensino Médico, embora ainda divulguem pouco devido as questões éticas de um setor ainda sem regulação de LLMs na Saúde.
Bernard Chang, reitor de educação médica na Harvard Medical School, explica o que vem pela frente: “Eu pessoalmente acho que a GenAI representa uma revolução tecnológica que acontece a cada duas décadas e nos faz repensar como ensinamos nossos médicos. A última vez que isso aconteceu foi com a Internet, no final dos anos 90 e início dos anos 2000”. Azra Bihorac, reitora de pesquisa da Faculdade de Medicina da Universidade da Flórida, completa: “A face da medicina será transformada com a IA, e precisamos rapidamente qualificar nossa força de trabalho educacional para essa transformação”.
Uma abordagem proativa marca o relacionamento da IA com o ensino médico. Todavia, é preciso cautela no aprendizado da Inteligência Artificial. Ainda existe necessidade da supervisão humana. Os problemas da compreensão limitada de como elas tomam decisões são desafiadores e sua opacidade não é algo simples de engolir e aceitar. O que ficou óbvio é que o futuro da educação médica será pavimentado pelas IAs. A rápida ascensão dos LLMs ultrapassa a capacidade dos currículos acadêmicos de hoje de integrá-los sem reformas. Nas disciplinas que envolvem Medicina Molecular, por exemplo, alunos podem se entreolhar durante a aula e perguntar aos mestres: “você está nos explicando o catálogo de descobertas proteicas dos últimos 30 anos e os métodos usados para aumentar os acertos, mas por que você não explica que jamais usaremos esses métodos ao sair da escola?”
Em dezembro de 2023, 24 moléculas descobertas por IA haviam concluído os ensaios da Fase I, dos quais 21 foram bem-sucedidos. Significa uma taxa de sucesso de 80%–90%, substancialmente maior do que as médias históricas que variam entre 40%-55%. “Se tomarmos as taxas de sucesso de moléculas descobertas por IA nos últimos meses, teremos um quadro impressionante: a probabilidade de uma molécula ter sucesso em todas as fases clínicas de ponta a ponta aumentaria de 5–10% para 9–18%, o que representaria o dobro da produtividade geral da P&D farmacêutica”, explica o estudo “How successful are AI-discovered drugs in clinical trials? A first analysis and emerging lessons”, publicado em junho de 2024 por pesquisadores do Boston Consulting Group. Que futuro terá um pesquisador que sair de uma Escola Médica se não for habilitado a entender, trabalhar e desenvolver pesquisas com LLMs?
Na Europa, sempre ambígua no apoio às inovações tecnológicas, o Comitê Permanente dos Médicos Europeus (CPME) publicou em novembro de 2024 um documento (“Deployment of Artificial Intelligence in Healthcare: Sector-specific challenges and accelerators”) que aborda, entre outros temas, o “ensino médico em tempos de IA”. Sua orientação retrata a fricção entre o conservadorismo da comunidade médica e sua adesão as IAs, como cita o documento: (1) o uso excessivo de IA no ensino médico pode reduzir o foco no desenvolvimento das habilidades interpessoais e de empatia, que são essenciais na prática médica, sendo que as IAs podem ser vistas como uma ameaça a esse aspecto central; (2) haverá receio de que os estudantes se tornem excessivamente dependentes da IA para diagnósticos e decisões clínicas, em detrimento do desenvolvimento de um pensamento crítico independente, levando a uma diminuição da capacidade médica de lidar com situações complexas; (3) como a IA evolui rapidamente, os currículos médicos podem não conseguir acompanhar essas mudanças, gerando resistências por parte de educadores que consideram arriscado incluir ferramentas que possam se tornar obsoletas rapidamente; (4) o uso de IA pode levantar questões sobre como o desempenho dos estudantes será avaliado, uma vez que a IA pode interferir nos resultados e dificultar a avaliação justa e objetiva das competências individuais;
Embora seus pontos persigam estimular o uso da IA no Ensino Médico, suas premissas para essa usabilidade permanecem ambíguas, difusas e muitas vezes obstrutivas. Trata-se de um “jogo semântico” evasivo e impreciso, que evidencia e protege a força dos ‘ducados dominantes’. Em geral, esse é o roteiro–mainstream da Academia Médica no Ocidente, guardadas as exceções de sempre: pleiteia a inovação, incentiva o reformismo e adula os investimentos tecnológicos, sempre que esses itens não desafiem a conservação do capital humano dominante. Essa resistência explica por que a grande maioria das cadeias de saúde ao redor do mundo esteja meio século atrasada no uso digital em comparação com as demais indústrias de serviços.
O que está em jogo não é a proficiência de IA para alunos e professores, mas a sustentabilidade de um sistema de ensino já colapsado bem antes dos LLMs. Mais do que isso: trata-se da expansibilidade da cognição humana. Como mostra o estudo “Preparing healthcare education for an AI-augmented future” (Nature/Dez/2024), publicado por pesquisadores da University of Texas (Health Science Center): “As capacidades cognitivas do cérebro biológico humano permaneceram inalteradas ao longo dos milênios. A cognição humana é uma conjunção de conhecimento e processos distribuídos entre os cérebros biológicos e o mundo externo. O ábaco permitiu cálculos complexos muito antes do advento das calculadoras modernas. A matemática forneceu a estrutura fundamental para o raciocínio lógico e a descoberta científica. São as ciências e os artefatos, como os LLMs, que se integram à nossa cognição em tempo real, gerando um Sistema de Cognição Distribuído (SCD). Embora o cérebro biológico permaneça relativamente estático, o SCD, composto por cérebro e tecnologia, cresce exponencialmente em capacidade e habilidade. As implicações da IA na educação médica são transformadoras. Modelos educacionais tradicionais, frequentemente compartimentados por disciplinas ou interdisciplinas vagamente sobrepostas, vão evoluir para estruturas integradas que refletem a natureza interconectada do conhecimento aumentado pela IA”.
Vamos saltar da educação interdisciplinar para a educação aumentada por IA. Os LLMs (ou AGIs, ou ASIs) serão incorporados ao currículo médico, da mesma forma como a Informática Biomédica o foi. Graduados estarão tecnicamente adeptos e preparados para navegar nas complexidades morais e sociais de um mundo aumentado pela IA. Não é uma hipótese, mas uma diáspora. Nem tampouco é uma previsão, mas uma asseveração. A Cognição Artificial está gerando transformações sem precedentes, unificando e expandindo a base de conhecimento para dimensões antes inatingíveis somente pela capacidade humana. Graduados e pós-graduados, professores e médicos não ficarão alijados dessa progressão, desse florescimento. Não lhes cabe o papel de testemunhas, mas de protagonistas. Se as Academias Médicas não forem as promotoras dessa transformação, pouco sobrará a elas além de serem o “panteão do passado”, com fotos amareladas de seus ‘Mestres’ expostas pelas paredes das Universidades. O futuro penaliza a omissão.
Ainda é comum se ouvir: “O estudo da medicina não é meramente um exercício técnico, mas uma arte profundamente enraizada na experiência humana. O papel de um médico se estende muito além de diagnosticar doenças ou prescrever tratamentos. Os médicos se envolvem com os pacientes em um nível profundamente pessoal, interpretando não apenas sintomas, mas também histórias, emoções e medos não ditos. Eles oferecem um ouvido atento, uma presença reconfortante e uma humanidade compartilhada que a IA não pode duplicar”. Trata-se de uma verdade inquestionável. Todavia, médicos “não têm mais tempo de se envolver com pacientes em um nível pessoal”. Estão atolados na papelocracia dos Sistemas de Saúde ditos “performáticos”. À exceção de um minúsculo círculo que pode se dedicar a pesquisa, ao ambulatório e a independência progressista, a maciça maioria dos médicos não consegue atender bem, não tem tempo para se dedicar aos casos, não consegue se atualizar, não é remunerada à altura de sua responsabilidade, não é qualificada e tampouco tem tempo para sê-lo. Nesse sentido, a profissão médica não precisa da IA para se dissolver ou desintegrar, precisa dela para sobreviver.
Guilherme S. Hummel
Scientific Coordinator Hospitalar Hub
Head Mentor – EMI (eHealth Mentor Institute)