Ciência e Dados
Menu
  • Home
  • Sobre
  • Contato
Menu

Corrective RAG (CRAG) – Aprimorando a Geração de Respostas em IA Generativa

Posted on 24 de fevereiro de 2025 by David Matos

Modelos de linguagem de grande porte (LLMs) revolucionaram a IA Generativa, mas ainda sofrem de alucinações – respostas factualmente incorretas geradas devido a limitações no conhecimento armazenado nos parâmetros do modelo.

Para mitigar esse problema, surgiu o método Retrieval-Augmented Generation (RAG ou Geração Aumentada por Recuperação), que integra mecanismos de busca de informações externas ao processo de geração. Em essência, o RAG permite que o modelo obtenha dados relevantes de bases de conhecimento ou documentos, tornando as respostas mais precisas, atualizadas e contextuais.

No entanto, o RAG tradicional pressupõe que os documentos recuperados são pertinentes e corretos. Caso a recuperação traga conteúdo irrelevante ou enganoso, o modelo pode acabar gerando respostas incorretas, pois confia cegamente nesses documentos. Essa dependência levanta a preocupação: o que acontece se a etapa de busca falhar?

É nesse contexto que surge o Corrective RAG (CRAG) – Corrective Retrieval-Augmented Generation, ou em tradução livre RAG Corretivo. O CRAG é uma estratégia avançada dentro do universo de possibilidades do RAG que foca em aprimorar a precisão e relevância das respostas incorporando mecanismos de autoavaliação e correção dos documentos recuperados. Diferentemente do RAG tradicional, o CRAG verifica ativamente a relevância e acurácia das fontes antes de gerar a resposta, refinando ou complementando a busca quando necessário. Em outras palavras, o CRAG adiciona uma camada “corretiva” ao processo de geração: ele identifica possíveis erros ou lacunas na etapa de recuperação e os resolve proativamente, tornando a geração de texto final muito mais robusta e confiável.

Como o CRAG Funciona?

Embora o funcionamento interno do CRAG envolva técnicas avançadas, podemos entendê-lo de forma simplificada em algumas etapas. O objetivo central é garantir que o modelo use apenas informações confiáveis e relevantes ao responder, corrigindo o curso se necessário. A seguir, descrevemos o fluxo do CRAG passo a passo:

Recuperação Inicial de Documentos: O processo começa de forma semelhante ao RAG tradicional. Dada uma pergunta ou consulta do usuário, o sistema realiza uma busca inicial em uma base de conhecimento estática (por exemplo, um índice de documentos internos) e recupera os documentos potencialmente relevantes relacionados à consulta. Essa etapa fornece um conjunto de contexto inicial para a IA usar na geração da resposta.

Avaliação de Relevância: Em vez de confiar imediatamente nesses documentos, o CRAG emprega um avaliador de recuperação leve – um componente cuja função é analisar a qualidade e relevância dos documentos recuperados. Esse avaliador pode atribuir uma pontuação de confiança ou classificar cada documento em categorias como “relevante”, “irrelevante” ou “ambíguo”. Com base nessa avaliação, o sistema decide como proceder. Por exemplo, se uma proporção significativa dos documentos for considerada irrelevante (digamos, mais de ~70%), o CRAG interpreta isso como um sinal de que a busca inicial falhou em atender à consulta adequadamente e aciona medidas corretivas. Caso contrário, se os documentos recuperados forem em sua maioria relevantes, o processo segue adiante para a geração da resposta usando esse material.

Busca Suplementar Corretiva: Se o avaliador indicar que os documentos iniciais são insuficientes ou pouco confiáveis, o CRAG realiza buscas adicionais para complementar ou corrigir o conjunto de conhecimento. Nessa fase, o sistema pode reformular a pergunta original (query) para torná-la mais alinhada a uma busca eficaz. Por exemplo, ele pode acrescentar palavras-chave ou contexto à consulta, a fim de melhorar a qualidade dos resultados de busca. Em seguida, o CRAG efetua uma busca ampliada, muitas vezes recorrendo a fontes externas ou de grande escala, como uma pesquisa na web, para trazer informações atualizadas e diversificadas. Esse passo corretivo garante que, se a base de conhecimento local for incompleta ou limitada, o sistema ainda assim consiga obter dados relevantes de outras fontes. O resultado é um conjunto expandido de evidências possivelmente mais pertinentes à pergunta original.

Filtragem e Refinamento das Informações: De posse de um conjunto de documentos (da busca inicial e possivelmente da busca suplementar), o CRAG aplica um processo de refinamento antes de gerar a resposta final. Isso envolve filtrar conteúdos irrelevantes e destacar as informações-chave nos documentos obtidos. Uma técnica utilizada é conhecida como “decompose-then-recompose” (decompor e recompor): os documentos recuperados são divididos em trechos menores, ou “faixas de conhecimento”, que são então avaliados individualmente. Trechos considerados não relacionados ou redundantes são descartados, enquanto os elementos relevantes são mantidos. Em seguida, o sistema recompõe os fragmentos essenciais, agora livre de ruído, formando um contexto coerente e conciso para o modelo gerar a resposta. Esse refinamento garante que o modelo foque apenas no conteúdo que realmente importa, reduzindo a chance de se desviar para informações incorretas.

Geração da Resposta: Por fim, com um contexto limpo, confiável e enriquecido em mãos, o modelo generativo (LLM) produz a resposta ao usuário. Nesta etapa, o LLM utiliza exclusivamente (ou dá prioridade a) as informações filtradas e validadas nas etapas anteriores. Como resultado, a resposta gerada tende a ser coerente com as fontes verificadas, factualmente correta e contextualizada. 

O CRAG age como um ciclo de realimentação dentro do pipeline de geração: se algo faltar ou estiver errado nos dados de suporte, o sistema se autocorrige antes de entregar a resposta final, elevando a qualidade e a robustez da geração de texto e reduzindo a chance de alucinações do modelo de IA Generativa.

No próximo artigo veremos os casos de uso do Corrective RAG (CRAG).

David Matos

Referências:

Corrective Retrieval Augmented Generation

Infraestrutura de Dados, IA e Agentes de IA com Databricks

Compartilhar

  • Clique para compartilhar no X(abre em nova janela) 18+
  • Clique para compartilhar no Facebook(abre em nova janela) Facebook
  • Clique para compartilhar no LinkedIn(abre em nova janela) LinkedIn
  • Clique para compartilhar no WhatsApp(abre em nova janela) WhatsApp
  • Clique para compartilhar no Telegram(abre em nova janela) Telegram
  • Clique para compartilhar no Tumblr(abre em nova janela) Tumblr
  • Clique para compartilhar no Pinterest(abre em nova janela) Pinterest

Relacionado

1 thought on “Corrective RAG (CRAG) – Aprimorando a Geração de Respostas em IA Generativa”

  1. Pingback: Casos de Uso Empresariais do Corrective RAG (CRAG) em Aplicações de IA Generativa — Ciência e Dados

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Assinar blog por e-mail

Digite seu endereço de e-mail para assinar este blog e receber notificações de novas publicações por e-mail.

Buscar

Tags Mais Comuns nos Posts

Agentes de IA Analytics Análise de Negócios Apache Spark AWS Big Data Blockchain Business Intelligence ChatGPT Cientista de Dados Cientistas de Dados Ciência de Dados Cloud Computing Data Lake Data Mesh Data Science Data Scientist Data Warehouse Deep Learning Deploy Engenharia de Dados Estatística GPU GraphRAG Hadoop IA Generativa Inteligência Artificial Internet of Things Linguagem Python Linguagem R LLM LLMs Machine Learning MCP (Model Context Protocol) Metadados Normalização NVIDIA Oracle Pipeline de Dados Predictive Analytics Probabilidade PySpark Python RAG Storytelling

Histórico de Posts

  • maio 2025 (6)
  • abril 2025 (2)
  • março 2025 (4)
  • fevereiro 2025 (8)
  • janeiro 2025 (5)
  • dezembro 2024 (4)
  • novembro 2024 (1)
  • outubro 2024 (1)
  • setembro 2024 (1)
  • agosto 2024 (1)
  • julho 2024 (3)
  • junho 2024 (1)
  • maio 2024 (1)
  • abril 2024 (2)
  • março 2024 (1)
  • fevereiro 2024 (1)
  • janeiro 2024 (1)
  • dezembro 2023 (1)
  • outubro 2023 (2)
  • setembro 2023 (1)
  • agosto 2023 (4)
  • julho 2023 (2)
  • junho 2023 (4)
  • maio 2023 (2)
  • abril 2023 (2)
  • março 2023 (3)
  • fevereiro 2023 (3)
  • janeiro 2023 (3)
  • dezembro 2022 (7)
  • novembro 2022 (6)
  • outubro 2022 (2)
  • setembro 2022 (3)
  • agosto 2022 (2)
  • julho 2022 (2)
  • junho 2022 (3)
  • maio 2022 (1)
  • abril 2022 (3)
  • março 2022 (1)
  • fevereiro 2022 (3)
  • janeiro 2022 (2)
  • dezembro 2021 (1)
  • novembro 2021 (5)
  • outubro 2021 (2)
  • setembro 2021 (3)
  • agosto 2021 (1)
  • junho 2021 (1)
  • fevereiro 2021 (2)
  • janeiro 2021 (1)
  • dezembro 2020 (1)
  • novembro 2020 (1)
  • outubro 2020 (2)
  • agosto 2020 (1)
  • abril 2020 (1)
  • março 2020 (1)
  • fevereiro 2020 (2)
  • agosto 2019 (1)
  • abril 2019 (1)
  • setembro 2018 (2)
  • julho 2018 (1)
  • junho 2018 (3)
  • abril 2018 (1)
  • março 2018 (1)
  • fevereiro 2018 (2)
  • janeiro 2018 (1)
  • dezembro 2017 (1)
  • novembro 2017 (1)
  • outubro 2017 (1)
  • setembro 2017 (1)
  • julho 2017 (1)
  • junho 2017 (1)
  • maio 2017 (2)
  • abril 2017 (1)
  • janeiro 2017 (1)
  • novembro 2016 (1)
  • outubro 2016 (1)
  • setembro 2016 (1)
  • julho 2016 (1)
  • junho 2016 (1)
  • maio 2016 (1)
  • abril 2016 (1)
  • fevereiro 2016 (1)
  • janeiro 2016 (3)
  • dezembro 2015 (4)
  • novembro 2015 (6)
  • outubro 2015 (9)
  • setembro 2015 (9)
  • agosto 2015 (9)
©2025 Ciência e Dados