Referência
Glossário de IA
Mais de 70 termos de inteligência artificial explicados de forma acessível. Use Ctrl+F para buscar.
Ferramentas de IA surgem toda semana — os conceitos que você aprende aqui duram.
Glossário de inteligência artificial
Seu dicionário de IA --- de A a Z
Este glossário reúne os termos mais importantes de inteligência artificial, machine learning e ciência de dados. Cada definição foi escrita para ser compreensível por não-técnicos, com exemplos práticos quando possível. Use Ctrl+F para buscar qualquer termo.
Porcentagem de previsões corretas que um modelo faz em relação ao total de previsões. Se um modelo analisa 100 exames e acerta 90, a acurácia é 90%. Parece bom, mas pode ser enganoso: se 95% dos exames são normais e o modelo simplesmente diz "normal" para todos, tem 95% de acurácia sem detectar nenhuma doença. Por isso, acurácia sozinha nunca é suficiente.
Sistema de IA que combina um LLM com ferramentas, memória e um loop de decisão para executar tarefas de forma autônoma. Diferente de um chatbot simples que só responde perguntas, um agente pode pesquisar informações, executar código, acessar bancos de dados e tomar decisões sobre os próximos passos. Exemplo: Claude Code é um agente --- ele lê arquivos, escreve código, executa comandos e decide o que fazer a seguir para completar uma tarefa.
Quando uma IA gera informação que parece verdadeira mas é inventada. O modelo não "mente" intencionalmente --- ele gera o texto mais provável, mesmo que não corresponda à realidade. Exemplo: pedir uma referência bibliográfica e receber um artigo com título, autores e revista que não existem. É o maior risco no uso de IA para decisões importantes.
Interface que permite que dois sistemas conversem entre si de forma padronizada. Quando você usa o ChatGPT pelo site, está usando a interface web. Quando uma empresa conecta o ChatGPT ao seu sistema interno, usa a API. É como um garçom: você faz o pedido (requisição), ele leva à cozinha (servidor) e traz o prato (resposta).
Técnica que permite treinar modelos de IA em dados distribuídos sem que os dados saiam do local de origem. Em vez de centralizar todos os dados num servidor, o modelo viaja até os dados, aprende localmente e envia apenas o aprendizado (não os dados) de volta. Muito relevante na saúde: hospitais podem treinar modelos conjuntamente sem compartilhar prontuários de pacientes.
Tipo de machine learning onde o modelo aprende padrões nos dados sem rótulos ou respostas corretas. O algoritmo recebe os dados e encontra estruturas por conta própria. Exemplo: agrupar pacientes com perfis semelhantes (clustering) sem dizer previamente quais grupos existem. Útil para descobrir padrões que humanos não percebem.
Tipo de machine learning onde o modelo aprende por tentativa e erro, recebendo recompensas ou penalidades. Como ensinar um cachorro: ele tenta algo, recebe um "bom garoto" ou uma correção, e ajusta o comportamento. O ChatGPT usa RLHF (Reinforcement Learning from Human Feedback) --- humanos avaliam as respostas e o modelo aprende a gerar respostas melhores.
Tipo de machine learning onde o modelo aprende a partir de exemplos com rótulos (respostas corretas). Você mostra milhares de radiografias rotuladas como "normal" ou "fratura" e o modelo aprende a distinguir as duas. É o tipo mais comum de ML na prática. Exige dados rotulados, o que pode ser caro e demorado.
Algoritmo de ML que toma decisões seguindo uma sequência de perguntas sim/não, como um fluxograma. "Idade > 60? Sim. Diabético? Sim. Creatinina > 2? Não. → Risco moderado." É intuitivo e fácil de explicar, mas sozinho tende a decorar os dados (overfitting). Por isso, é mais usado em conjunto com outros (veja: Random Forest, Gradient Boosting).
Métrica que mede a capacidade de um modelo de distinguir entre classes (ex: doente vs. saudável). Varia de 0 a 1. AUC de 0,5 = chute aleatório. AUC de 1,0 = perfeito. Na prática, AUC acima de 0,8 é considerado bom para a maioria das aplicações clínicas. É mais confiável que acurácia quando os dados são desbalanceados.
Tendência humana de confiar excessivamente em sistemas automatizados, ignorando informações contraditórias. Quando um sistema de IA diz "normal" e o médico aceita sem verificar, mesmo com sinais clínicos de alerta. Quanto mais sofisticada a tecnologia, maior o risco. É por isso que validação humana não é opcional --- é segurança do paciente.
Ponto de referência para avaliar se um modelo de IA é realmente melhor que a alternativa mais simples. Se um modelo de IA detecta fraude com 92% de acurácia, parece bom --- até você descobrir que uma regra simples ("bloquear compras acima de R$ 5.000 de madrugada") já atinge 90%. O baseline evita que você use um canhão para matar formiga.
Tendência sistemática de um modelo a favorecer ou prejudicar determinados grupos. Se um modelo de triagem foi treinado majoritariamente com dados de homens brancos, pode ter desempenho pior para mulheres ou minorias. Viés não é bug --- é reflexo dos dados. Dados enviesados geram modelos enviesados. Identificar e mitigar viés é responsabilidade de quem constrói e de quem usa.
Conjuntos de dados tão grandes, rápidos ou complexos que ferramentas tradicionais (Excel, SQL simples) não conseguem processar. Caracterizado pelos 5 Vs: Volume (terabytes+), Velocidade (dados em tempo real), Variedade (texto, imagem, vídeo), Veracidade (qualidade questionável) e Valor (o insight escondido nos dados). Na saúde: prontuários eletrônicos de milhões de pacientes ao longo de décadas.
Conjunto de métodos e tecnologias que ajudam pessoas com dificuldades de comunicação a se expressar. Inclui pranchas de comunicação, aplicativos com pictogramas e dispositivos com voz sintetizada. A IA está transformando a CAA com sistemas que preveem intenções de comunicação e geram fala natural a partir de seleções simples.
Técnica de prompting que pede à IA para mostrar o raciocínio passo a passo antes de dar a resposta final. Em vez de "Qual a dose de amoxicilina?", você pede: "Raciocine passo a passo: peso do paciente, indicação, via de administração, dose por kg, dose total." Melhora a qualidade das respostas em problemas complexos porque força o modelo a "pensar" antes de responder.
Programa que simula uma conversa com humanos, geralmente por texto. Vai desde bots simples baseados em regras ("digite 1 para atendimento") até assistentes sofisticados baseados em LLMs que entendem linguagem natural. Na saúde, chatbots são usados para triagem de sintomas, agendamento, informações sobre medicamentos e educação de pacientes.
Processo de dividir documentos grandes em pedaços menores para que possam ser processados por IA. Um PDF de 200 páginas não cabe no contexto de um LLM. O chunking divide em trechos de 500 a 1000 palavras, gera embeddings para cada trecho e permite busca por similaridade. É uma etapa essencial do RAG.
Tarefa de ML onde o modelo atribui uma categoria a um dado de entrada. "Este e-mail é spam ou não?" "Esta radiografia mostra fratura ou não?" "Este paciente é de alto risco ou baixo risco?" É o tipo mais comum de problema em ML supervisionado. A saída é uma classe (categoria), não um número.
Família de LLMs desenvolvida pela Anthropic, projetada com foco em segurança e utilidade. Inclui versões como Claude Opus (mais capaz), Claude Sonnet (equilíbrio) e Claude Haiku (mais rápido e barato). Compete com GPT (OpenAI) e Gemini (Google). Diferencial: contexto longo (até 200K tokens), respostas mais cuidadosas e o protocolo MCP.
Ferramenta da Anthropic que roda no terminal do computador e usa o Claude como agente de programação. Acessa arquivos locais, executa comandos, escreve código e interage com ferramentas via MCP. Diferente do ChatGPT (que roda no navegador), o Claude Code opera diretamente no seu computador, o que permite trabalhar com projetos reais sem upload de arquivos.
Modo de trabalho colaborativo entre humano e IA, onde ambos contribuem ativamente para o resultado. Diferente de "pedir para a IA fazer tudo", cowork significa trabalhar junto: o humano define a estratégia, valida decisões e aplica conhecimento de domínio; a IA executa tarefas operacionais, busca informações e gera rascunhos. É o modelo mais produtivo de uso de IA.
Metodologia de 6 fases para projetos de dados e IA, criada em 1996 e ainda a mais usada no mundo. Fases: Entendimento do Negócio → Entendimento dos Dados → Preparação → Modelagem → Avaliação → Implantação. O ciclo é iterativo --- você volta atrás o tempo todo. Funciona há quase 30 anos porque os problemas reais de projetos de IA são de processo, não de tecnologia.
Modelo que descreve as fases de adoção de uma tecnologia: pico de expectativas infladas → vale da desilusão → platô de produtividade. A IA generativa atingiu o pico em 2023-2024. Muitas empresas estão no vale da desilusão (projetos que não entregaram o prometido). O platô --- onde a tecnologia realmente entrega valor --- está sendo alcançado por quem usa IA para problemas reais, não para impressionar.
Mudança na distribuição dos dados ao longo do tempo, que faz um modelo perder desempenho. Um modelo treinado com dados de 2020 pode funcionar mal em 2025 porque os padrões mudaram. Exemplo: modelo de crédito treinado pré-pandemia falha pós-pandemia porque o comportamento financeiro das pessoas mudou. Monitorar data drift é essencial para modelos em produção.
Coleção organizada de dados usada para treinar, validar ou testar modelos de IA. Pode ser uma planilha com 1.000 linhas ou um banco com bilhões de registros. A qualidade do dataset determina a qualidade do modelo --- dados sujos, incompletos ou enviesados geram modelos ruins. "Garbage in, garbage out" é a regra mais antiga e mais verdadeira da ciência de dados.
Subcampo de machine learning que usa redes neurais com muitas camadas para aprender padrões complexos. É o que permite reconhecimento de imagem, tradução automática e geração de texto. "Profundo" refere-se à quantidade de camadas da rede, não à profundidade filosófica. GPT, BERT, redes convolucionais para imagens médicas --- tudo é deep learning.
Conteúdo sintético (vídeo, áudio, imagem) gerado por IA que imita pessoas reais de forma convincente. Um vídeo de alguém dizendo algo que nunca disse, uma voz clonada fazendo uma ligação falsa. Os riscos vão de desinformação política a fraude financeira. Na saúde, deepfakes de laudos ou receitas médicas são uma ameaça emergente.
Padrão internacional para armazenar e transmitir imagens médicas. Toda tomografia, ressonância, raio-X ou ultrassom segue o formato DICOM. Inclui não só a imagem, mas metadados (nome do paciente, data, parâmetros do exame). Modelos de IA para imagens médicas precisam ler DICOM --- não basta um JPG.
Técnica matemática que adiciona ruído controlado aos dados para proteger a privacidade individual sem destruir os padrões estatísticos. Permite analisar dados de populações sem revelar informações sobre indivíduos específicos. Apple e Google usam em seus produtos. Na saúde, permite pesquisa com dados reais mantendo a privacidade dos pacientes.
Representação numérica de significado --- texto, imagem ou qualquer dado convertido em uma lista de números (vetor). Textos com significados parecidos ficam próximos numericamente. "Infarto" e "ataque cardíaco" têm embeddings quase idênticos, mesmo sendo palavras diferentes. É a base da busca semântica e do RAG.
Uma passagem completa de todos os dados de treino pelo modelo durante o treinamento. Treinar por 10 epochs significa que o modelo viu todos os exemplos 10 vezes. Poucas epochs = modelo não aprende o suficiente (underfitting). Muitas epochs = modelo decora os dados (overfitting). Encontrar o número certo é parte do ajuste.
Capacidade do modelo de identificar corretamente os casos negativos (saudáveis). Se 100 pessoas são saudáveis e o modelo identifica 95 como saudáveis, a especificidade é 95%. Alta especificidade = poucos falsos positivos. Importante em triagem: um exame com baixa especificidade gera muitos alarmes falsos, causando ansiedade e exames desnecessários.
Média harmônica entre precisão e recall (sensibilidade), usada quando ambos são importantes. Varia de 0 a 1. Um F1 alto significa que o modelo é bom tanto em não errar os positivos (precisão) quanto em não perder os positivos (recall). É a métrica preferida quando os dados são desbalanceados e acurácia sozinha engana.
Diretrizes para que dados científicos sejam Findable (encontráveis), Accessible (acessíveis), Interoperable (interoperáveis) e Reusable (reutilizáveis). Publicados em 2016, são o padrão-ouro para dados de pesquisa. Na saúde, dados FAIR permitem que pesquisadores de diferentes instituições colaborem e reproduzam estudos.
Cada característica individual que o modelo usa para fazer previsões. Em dados de pacientes: idade, peso, pressão arterial, número de comorbidades --- cada uma é uma feature. A escolha das features certas é frequentemente mais importante que a escolha do algoritmo. Modelos bons com features ruins produzem resultados ruins.
Processo de criar, transformar ou selecionar variáveis para melhorar o desempenho de um modelo de ML. Exemplo: em vez de usar "data de nascimento", criar a feature "idade em anos". Ou combinar "peso" e "altura" para criar "IMC". Exige conhecimento do domínio --- o melhor feature engineering na saúde vem de quem entende medicina, não de quem entende código.
Capacidade da IA de aprender uma tarefa a partir de poucos exemplos (2 a 5), sem retreinamento. Você mostra 3 exemplos de como quer o output e a IA generaliza para novos casos. Exemplo: "Classifique estes laudos: 'Sem alterações' → Normal; 'Opacidade em base direita' → Alterado; 'Campos pulmonares livres' → Normal. Agora classifique: 'Derrame pleural à esquerda'."
Padrão internacional moderno para troca de dados em saúde entre sistemas. Permite que prontuários eletrônicos, laboratórios, farmácias e outros sistemas "conversem" entre si. Baseado em tecnologias web (REST, JSON). No Brasil, a RNDS (Rede Nacional de Dados em Saúde) adota FHIR. É a ponte que permite conectar IA a prontuários eletrônicos via MCP.
Processo de treinar um modelo pré-treinado com dados específicos do seu domínio para adaptar seu comportamento. É como pegar um médico generalista e especializá-lo: ele já sabe medicina, mas você o treina com casos da sua especialidade. Caro e complexo, mas necessário quando o modelo precisa falar/escrever de forma específica (ex: gerar laudos no padrão do hospital).
Modelo de IA grande, treinado em dados massivos e genéricos, que serve como base para múltiplas aplicações. GPT-4, Claude, Gemini e LLaMA são foundation models. Como um diploma de medicina: dá a base para várias especialidades. Fine-tuning é a residência --- especializa o modelo para um domínio específico.
Capacidade de um LLM de chamar funções externas quando precisa de informação ou ação que não consegue gerar sozinho. O modelo identifica que precisa consultar um banco de dados, formata a chamada corretamente e usa o resultado para compor a resposta. É o mecanismo que permite ao LLM "fazer coisas" --- agendar reuniões, buscar dados, enviar e-mails.
Família de LLMs do Google, integrada ao ecossistema Google (Docs, Sheets, Gmail, Search). Disponível em versões Ultra, Pro e Flash. Diferencial: integração nativa com serviços Google e capacidade multimodal (texto, imagem, vídeo, código). Concorre com GPT (OpenAI) e Claude (Anthropic).
Família de LLMs da OpenAI que popularizou a IA generativa a partir de 2022. GPT-3.5 foi o modelo por trás do lançamento do ChatGPT. GPT-4 e GPT-4o são as versões mais recentes. "Generative" = gera texto; "Pre-trained" = treinado em dados massivos; "Transformer" = a arquitetura por trás.
Processador originalmente criado para gráficos de jogos, que se tornou essencial para treinar modelos de IA. GPUs fazem milhões de operações matemáticas em paralelo --- exatamente o que redes neurais precisam. A NVIDIA domina o mercado. Treinar um LLM grande requer milhares de GPUs por semanas, custando milhões de dólares.
Técnica de ML que combina muitas árvores de decisão fracas para criar um modelo forte. Cada árvore nova corrige os erros da anterior. XGBoost, LightGBM e CatBoost são implementações populares. Domina competições de ML com dados tabulares (planilhas). Na saúde, é frequentemente o melhor algoritmo para dados clínicos estruturados.
Padrão internacional para troca de informações clínicas e administrativas entre sistemas de saúde. Existe desde 1987. O HL7 v2 (mais antigo) usa mensagens de texto; o HL7 FHIR (mais moderno) usa tecnologias web. Hospitais que usam HL7/FHIR podem integrar IA aos seus sistemas de forma padronizada.
Configuração definida antes do treino que controla como o modelo aprende. Taxa de aprendizado, número de camadas, tamanho do batch --- são hiperparâmetros. Diferente dos parâmetros (que o modelo aprende sozinho), hiperparâmetros são escolhidos pelo humano (ou por busca automática). Ajustar hiperparâmetros pode ser a diferença entre um modelo medíocre e um excelente.
Dataset com mais de 14 milhões de imagens classificadas em 20.000+ categorias, usado como benchmark para visão computacional. Em 2012, uma rede neural (AlexNet) venceu a competição ImageNet com margem enorme, marcando o início da revolução do deep learning. É o "momento ChatGPT" da visão computacional --- antes e depois.
Processo de usar um modelo já treinado para fazer previsões com dados novos. Treino é quando o modelo aprende. Inferência é quando ele aplica o que aprendeu. Quando você manda uma pergunta para o ChatGPT e recebe a resposta, isso é inferência. O custo de inferência (tempo + dinheiro por consulta) é crucial para viabilidade em produção.
Algoritmo de ML que classifica um dado novo com base nos K exemplos mais parecidos no dataset de treino. Se os 5 pacientes mais parecidos com o novo são todos de alto risco, o novo é classificado como alto risco. Simples e intuitivo, mas lento com muitos dados. Bom para entender o conceito de ML antes de partir para algoritmos mais complexos.
Estrutura que representa conhecimento como uma rede de entidades e relações. "Metformina → trata → Diabetes Tipo 2 → é comorbidade de → Hipertensão → é tratada por → Losartana". Permite que a IA navegue por relações complexas. Google Knowledge Graph é o exemplo mais conhecido. Na saúde, grafos conectam doenças, medicamentos, sintomas e interações.
Lei brasileira (Lei 13.709/2018) que regula o uso de dados pessoais, incluindo dados de saúde. Dados de saúde são considerados "dados sensíveis" e exigem proteção adicional. Qualquer projeto de IA que use dados de pacientes precisa estar em conformidade com a LGPD: consentimento, finalidade, necessidade, segurança e direito de acesso do titular.
Modelo de IA treinado em enormes quantidades de texto para entender e gerar linguagem natural. GPT-4, Claude, Gemini e LLaMA são LLMs. "Grande" refere-se ao número de parâmetros (bilhões) e ao volume de dados de treino (trilhões de tokens). São a base do ChatGPT, Claude e outros assistentes de IA.
Técnica de fine-tuning eficiente que modifica apenas uma pequena fração dos parâmetros do modelo, reduzindo drasticamente o custo. Em vez de retreinar bilhões de parâmetros, LoRA treina milhões. Permite fine-tuning em GPUs acessíveis (em vez de clusters caríssimos). Democratizou o fine-tuning para empresas menores e pesquisadores individuais.
Subcampo da IA onde o computador aprende padrões a partir de dados, sem ser explicitamente programado. Em vez de programar regras ("se pressão > 140, alerta"), você dá exemplos e o algoritmo descobre as regras sozinho. Inclui aprendizado supervisionado, não supervisionado e por reforço. É a base de quase toda IA prática atual.
Tabela que mostra os 4 resultados possíveis de um classificador: verdadeiros positivos, falsos positivos, verdadeiros negativos e falsos negativos. Essencial para entender onde o modelo erra. Na saúde: falso negativo (doente classificado como saudável) geralmente é mais perigoso que falso positivo (saudável classificado como doente). A matriz revela esse detalhe que a acurácia esconde.
Protocolo aberto criado pela Anthropic que permite LLMs se conectarem a fontes de dados externas e ferramentas em tempo real. Diferente de RAG (que busca em documentos estáticos), MCP conecta a IA a sistemas vivos --- bancos de dados, APIs, prontuários. Analogia: RAG é consultar um livro; MCP é ter acesso à biblioteca, ao laboratório e ao escritório. É open source.
Representação matemática aprendida a partir de dados que permite fazer previsões ou gerar conteúdo. Um modelo de ML é como uma "fórmula" extremamente complexa que o computador descobre sozinho a partir dos exemplos. Existem modelos para classificação, regressão, geração de texto, geração de imagens e muito mais.
Perda gradual de desempenho de um modelo ao longo do tempo porque os dados ou o contexto mudaram. Relacionado ao data drift, mas focado no impacto no modelo. Um modelo de previsão de demanda treinado pré-pandemia "drifta" pós-pandemia porque os padrões de consumo mudaram. Monitoramento contínuo é a única defesa.
IA que processa e gera múltiplos tipos de dados: texto, imagem, áudio, vídeo. GPT-4o, Claude e Gemini são multimodais --- você pode enviar uma foto e pedir análise, ou descrever uma imagem que quer gerar. Na saúde: análise de imagens médicas + texto do laudo + dados do prontuário ao mesmo tempo.
Algoritmo de ML baseado no teorema de Bayes, que calcula a probabilidade de uma classe dado as features observadas. "Naive" (ingênuo) porque assume que as features são independentes entre si --- o que raramente é verdade, mas funciona surpreendentemente bem na prática. Clássico para classificação de texto (spam, sentimento, categorização).
Área da IA que lida com a interação entre computadores e linguagem humana. Inclui: entender texto (compreensão), gerar texto (geração), traduzir idiomas, analisar sentimentos, extrair informações. ChatGPT, Claude e tradutores automáticos são aplicações de NLP. Na saúde: extração de informações de laudos não estruturados, análise de notas clínicas.
Modelo de ML inspirado (vagamente) no cérebro humano, composto por camadas de "neurônios" artificiais interconectados. Cada neurônio recebe entradas, aplica pesos e passa o resultado adiante. Redes com muitas camadas = deep learning. São a base de LLMs, visão computacional, reconhecimento de fala e quase toda IA moderna.
Ferramenta do Google que permite subir documentos e conversar com eles usando IA. Você adiciona PDFs, artigos, notas --- e o NotebookLM responde perguntas com base exclusivamente nesses documentos, citando as fontes. É um sistema RAG pronto para usar, sem programação. Ideal para pesquisadores, estudantes e profissionais que precisam digerir documentos longos.
Quando um modelo "decora" os dados de treino em vez de aprender padrões generalizáveis. Funciona perfeitamente nos dados que já viu, mas falha com dados novos. Como um estudante que decora as respostas da prova anterior: vai bem no simulado, mal na prova real. Combatido com validação cruzada, regularização e mais dados.
Valor numérico interno do modelo que é ajustado automaticamente durante o treinamento. GPT-4 tem estimados 1,7 trilhões de parâmetros. Cada parâmetro é um "botão" que o modelo ajusta para melhorar suas previsões. Mais parâmetros = modelo mais capaz (em teoria), mas também mais caro para treinar e executar.
Framework para construção de prompts eficazes: Problema, Contexto, Requisição e Regras. Problema: o que precisa ser resolvido. Contexto: informação de fundo relevante. Requisição: o que exatamente você quer como output. Regras: restrições, formato, tom. Estruturar prompts com PCRR melhora drasticamente a qualidade das respostas.
Dos casos que o modelo classificou como positivos, quantos realmente eram positivos. Se o modelo identificou 20 pacientes como "alto risco" e 15 realmente eram, a precisão é 75%. Alta precisão = poucos falsos positivos. Importante quando o custo de um alarme falso é alto (ex: cirurgia desnecessária).
Instrução ou pergunta que você envia para um modelo de IA. Pode ser simples ("Traduza para inglês") ou complexo (parágrafo com contexto, exemplos e restrições). A qualidade do prompt determina a qualidade da resposta. Um bom prompt é específico, contextualizado e define o formato esperado.
Arte e ciência de escrever instruções eficazes para modelos de IA. Inclui técnicas como chain-of-thought, few-shot learning, role prompting e PCRR. Não é programação --- é comunicação estruturada. A diferença entre um resultado medíocre e excelente frequentemente está no prompt, não no modelo.
Uso de tecnologia avançada (como IA) para fazer coisas que poderiam ser feitas com ferramentas simples, criando complexidade sem valor real. Exemplo: construir um chatbot com LLM para responder perguntas que estão na FAQ de uma página. Ou usar deep learning para um problema que regressão logística resolve. Parece inovação, mas é desperdício de recursos.
Técnica que busca informação relevante em uma base de documentos antes de gerar a resposta, reduzindo alucinações e mantendo o conhecimento atualizado. Fluxo: pergunta → busca por embeddings → documentos relevantes → LLM gera resposta com base nos documentos. NotebookLM, Claude Projects e Perplexity usam RAG. Essencial para chatbots empresariais e assistentes com dados específicos.
Algoritmo que combina centenas de árvores de decisão treinadas em subconjuntos aleatórios dos dados. Cada árvore "vota" e o resultado final é a maioria. Robusto, difícil de configurar errado e funciona bem com dados tabulares (planilhas). Um dos algoritmos mais usados na saúde para dados clínicos estruturados.
Framework que combina raciocínio (pensar passo a passo) com ação (usar ferramentas) em agentes de IA. O modelo pensa: "Preciso buscar o preço atual do produto" → age: chama a API de preços → observa o resultado → pensa: "Agora posso calcular o desconto" → age: faz o cálculo. É o padrão por trás de agentes como Claude Code.
Dos casos que realmente são positivos, quantos o modelo conseguiu identificar. Se existem 30 pacientes com câncer e o modelo identificou 24, o recall é 80%. Alta sensibilidade = poucos falsos negativos. Crucial na saúde: perder um caso de câncer (falso negativo) é geralmente pior que alarme falso (falso positivo).
Tipo de rede neural especializada em processar imagens, identificando padrões visuais hierárquicos. Primeira camada detecta bordas, segunda detecta formas, terceira detecta objetos. É a base da análise de imagens médicas: radiografias, tomografias, lâminas de patologia, retinografias. Na saúde, CNNs já igualam ou superam radiologistas em tarefas específicas.
Tipo de rede neural projetada para dados sequenciais, onde a ordem importa. Usa "memória" de passos anteriores para influenciar o processamento atual. Usada em séries temporais (sinais de ECG, EEG), tradução e geração de texto. Amplamente substituída por Transformers para texto, mas ainda relevante para sinais biomédicos.
Algoritmo de ML que prevê a probabilidade de um evento binário (sim/não). Apesar do nome, é um algoritmo de classificação. "Qual a probabilidade deste paciente ser readmitido em 30 dias?" Simples, interpretável e frequentemente o melhor ponto de partida. Na saúde, é o baseline contra o qual modelos mais complexos são comparados.
Framework para construção de prompts: Role (papel da IA), Objective (objetivo), Audience (público-alvo), Deliverable (entregável esperado). Exemplo: Role = especialista em cardiologia; Objective = explicar insuficiência cardíaca; Audience = pacientes sem formação médica; Deliverable = texto de 200 palavras com linguagem simples.
Sinônimo de recall. Dos casos realmente positivos, quantos o modelo identificou. Na saúde, é a métrica mais crítica para triagem e rastreamento. Um teste de triagem com 99% de sensibilidade perde apenas 1 em cada 100 casos positivos. Quanto mais grave a doença, maior a sensibilidade necessária.
Método para explicar as previsões de modelos de ML, mostrando a contribuição de cada feature para uma previsão específica. Baseado na teoria dos jogos (valores de Shapley). Responde: "Por que o modelo classificou ESTE paciente como alto risco?" mostrando que idade contribuiu +30%, creatinina +25%, diabetes +20%. Essencial para IA explicável na saúde.
Algoritmo de ML que encontra a melhor fronteira (hiperplano) para separar duas classes. Imagine pontos vermelhos e azuis num gráfico: SVM encontra a linha que melhor separa os dois grupos, maximizando a margem. Funciona bem com datasets pequenos e em problemas de alta dimensionalidade. Menos popular hoje, mas ainda relevante em aplicações específicas.
Instruções invisíveis ao usuário que definem o comportamento, tom e limites de um assistente de IA. Quando você conversa com o ChatGPT, há um system prompt por trás que diz "Você é um assistente útil..." Customizar o system prompt é como dar um manual de conduta ao assistente antes de ele começar a trabalhar.
Ferramenta gratuita do Google que permite treinar modelos simples de ML diretamente no navegador, sem código. Você mostra exemplos (fotos, sons, poses) e a ferramenta treina um classificador em minutos. Ideal para educação, prototipagem rápida e projetos introdutórios de IA. Não serve para produção, mas é excelente para entender como ML funciona.
Parâmetro que controla a criatividade/aleatoriedade das respostas de um LLM. Temperatura 0 = respostas determinísticas e previsíveis. Temperatura 1+ = respostas mais criativas e variadas. Para tarefas factuais (análise de dados, consulta médica), use temperatura baixa. Para tarefas criativas (brainstorming, escrita), use temperatura mais alta.
Unidade básica de texto que os LLMs processam --- aproximadamente 3/4 de uma palavra em inglês. "Inteligência artificial" tem ~4 tokens. Modelos cobram por token (entrada + saída). O contexto máximo (128K, 200K tokens) define quanto texto o modelo pode processar de uma vez. Em português, a tokenização é menos eficiente que em inglês --- mais tokens por palavra.
Técnica que reutiliza um modelo treinado em uma tarefa para resolver outra relacionada. Um modelo treinado em milhões de imagens genéricas pode ser adaptado (com poucos dados) para identificar lesões de pele. É como um médico que se especializa: não começa do zero --- usa a base da faculdade. Transformou a IA na saúde: não é preciso ter milhões de imagens médicas para treinar um modelo bom.
Arquitetura de rede neural criada pelo Google em 2017 ("Attention Is All You Need") que revolucionou a IA. Usa mecanismos de "atenção" para processar todo o texto de uma vez (não sequencialmente, como RNNs). É a base de GPT, BERT, Claude, Gemini e praticamente toda IA de linguagem moderna. O "T" em GPT vem de Transformer.
Quando um modelo é simples demais para capturar os padrões dos dados. O oposto de overfitting: em vez de decorar, ele nem aprende. Como um estudante que leu o resumo mas não entendeu a matéria --- vai mal tanto no simulado quanto na prova. Resolvido com modelos mais complexos, mais features ou mais dados.
Técnica que divide os dados em K partes e treina/testa K vezes, cada vez usando uma parte diferente como teste. Garante que a avaliação do modelo não depende de uma divisão específica dos dados. Se o modelo vai bem em todas as K rodadas, provavelmente é robusto. É o padrão-ouro para avaliar modelos com datasets limitados --- comum na saúde.
Testar um modelo em dados de uma população ou instituição diferente daquela usada no treino. Um modelo treinado no Hospital A funciona no Hospital B? Com outra população, outros protocolos, outros equipamentos? Validação externa é o teste de realidade. Modelos que passam são robustos. Os que falham estavam sobreajustados ao contexto original.
Testar um modelo em dados coletados após o treinamento, no fluxo real de uso. Diferente da validação retrospectiva (dados históricos), a prospectiva testa no mundo real: dados novos, cenário clínico real, usuários reais. É o nível mais alto de evidência para IA na saúde. Poucos modelos chegam aqui --- e os que chegam frequentemente mostram desempenho inferior ao da validação retrospectiva.
Estilo de programação onde o desenvolvedor descreve em linguagem natural o que quer e a IA gera o código. O termo foi cunhado por Andrej Karpathy em 2025. Em vez de escrever código linha por linha, você "vibra" a intenção e a IA traduz. Funciona para protótipos e projetos simples. Para sistemas complexos, exige supervisão técnica --- a IA gera código, mas não garante que está correto.
Área da IA que permite computadores "verem" e interpretarem imagens e vídeos. Inclui: classificação de imagens, detecção de objetos, segmentação, OCR (leitura de texto em imagens). Na saúde: análise de radiografias, detecção de lesões em dermoscopia, contagem de células em lâminas, análise de retinografia para retinopatia diabética.
Conjunto de técnicas que tornam as decisões da IA compreensíveis para humanos. "O modelo disse alto risco --- por quê?" XAI responde mostrando quais fatores contribuíram e quanto. SHAP, LIME e mapas de atenção são técnicas de XAI. Na saúde, é fundamental: médicos precisam entender por que a IA sugere algo para decidir se confiam na sugestão.
Capacidade da IA de realizar uma tarefa sem nenhum exemplo prévio, apenas com a instrução. "Classifique este texto como positivo, negativo ou neutro" --- sem mostrar exemplos. LLMs modernos são bons em zero-shot para muitas tarefas. Se o resultado não é bom o suficiente, few-shot (com poucos exemplos) geralmente resolve.