Ciência e Dados
Menu
  • Home
  • Sobre
  • Contato
Menu
claude code e ollama

Como Executar Claude Code com Ollama Localmente

Posted on 3 de fevereiro de 2026 by David Matos

A Inteligência Artificial já deixou de ser uma novidade experimental no desenvolvimento de software e passou a integrar o fluxo diário de trabalho.

Autocomplete inteligente, geração de trechos de código e explicações contextuais já são recursos comuns. O próximo estágio dessa evolução são os coding agents, sistemas que vão além da sugestão passiva e assumem um papel ativo no desenvolvimento, entendendo objetivos, navegando pelo projeto e executando tarefas completas de forma autônoma ou semi assistida.

Em vez de apenas responder perguntas, esses agentes conseguem ler arquivos do repositório, criar ou refatorar código, rodar testes, executar comandos no terminal e iterar sobre erros até chegar a um resultado funcional. Na prática, é como ter um programador assistente sempre disponível, integrado diretamente ao ambiente de desenvolvimento e capaz de operar no mesmo nível de contexto que um humano teria ao abrir o projeto.

Esse cenário fica ainda mais interessante quando tudo isso acontece localmente. Rodar um agente de código no próprio terminal elimina dependência de APIs externas, reduz custos operacionais e garante controle total sobre o código e os dados do projeto. Isso é especialmente relevante em ambientes corporativos, projetos sensíveis ou simplesmente para quem quer experimentar IA de forma mais livre e previsível.

É exatamente essa combinação que surge ao integrar o Claude Code com o Ollama. O Claude Code fornece a lógica de agente e a experiência madura de interação via terminal, enquanto o Ollama permite executar modelos de linguagem localmente, de forma simples e controlada. O resultado é um assistente de desenvolvimento poderoso, privado e totalmente sob seu controle. Neste guia, você vai ver como montar esse setup passo a passo e começar a usar agentes de codificação rodando direto na sua máquina.

O Que é o Claude Code?

O Claude Code é uma ferramenta de linha de comando criada pela Anthropic que atua como um assistente de programação com comportamento agente. Ele consegue entender o contexto do projeto, ler arquivos, alterar código e executar comandos no diretório de trabalho, tudo pelo terminal.

Originalmente, o Claude Code se conectava apenas aos servidores da Anthropic. Hoje, ele pode apontar para qualquer servidor compatível com a API da Anthropic, o que abre espaço para rodar tudo localmente usando o Ollama.

O Que é o Ollama?

O Ollama é uma plataforma que permite executar modelos de linguagem localmente no seu computador ou servidor. Em vez de depender de provedores externos, você baixa modelos open source e roda tudo offline, com mais privacidade e previsibilidade.

A proposta é simples: escolher um modelo, baixar e começar a usar. Modelos como qwen3 coder, glm 4.7 e gpt oss funcionam muito bem nesse cenário, desde que ofereçam suporte a tool calling.

Por Que Usar Claude Code com Ollama?

Usar Claude Code com Ollama é uma forma prática de ter um assistente de programação rodando localmente no terminal. Você ganha mais controle, mantém seu código privado e elimina custos com chamadas de API.

Esse setup é ideal para testar fluxos de trabalho com agentes, trabalhar em ambientes isolados ou simplesmente experimentar modelos open source sem depender da nuvem, mantendo a experiência de pair programming com IA. Lembrando que isso não substitui seu conhecimento, apenas o potencializa.

Esse modelo faz sentido especialmente se você quer manter dados sensíveis protegidos, evitar custos recorrentes, trabalhar offline ou explorar modelos e pipelines personalizados.

Instalação e Configuração

O primeiro passo é instalar o Ollama no seu sistema. Ele está disponível para macOS, Linux e Windows e a instalação é bem simples. Acesse o site oficial do Ollama e faça a instalação de acordo com seu SO:

Ollama

Depois disso, você precisa baixar um modelo local. Abra seu terminal ou prompt de comando e execute:

ollama pull qwen3-coder:30b

Neste exemplo usamos o qwen3 coder de 30 bilhões de parâmetros, mas você pode escolher modelos maiores se o seu hardware permitir.

Também é importante aumentar a janela de contexto do modelo nas configurações do Ollama. Um valor de 32k costuma funcionar bem para uso com agentes.

Com o Ollama configurado, o próximo passo é instalar o Claude Code. Ele é um CLI independente que se comunica com uma API compatível com a Anthropic. A instalação varia conforme o sistema operacional, mas envolve basicamente executar o script oficial de instalação. Acesse o site oficial e siga os passos de instalação de acordo com seu SO:

Claude Code

Depois de instalado, você precisa configurar duas variáveis de ambiente. A primeira é o token de autenticação, que pode ser qualquer valor simbólico, como “ollama”. A segunda é a URL base da API, que deve apontar para o servidor local do Ollama em http://localhost:11434. Aqui estão as variáveis:

macOS/Linux:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

Windows (via Power Shell):

$env:ANTHROPIC_AUTH_TOKEN=”ollama”
$env:ANTHROPIC_BASE_URL=”http://localhost:11434″

Com isso feito, já dá para executar o Claude Code apontando para o modelo local:

claude –model qwen3-coder:30b

No Windows, se o comando não for encontrado, basta chamar o executável diretamente no diretório .local bin do seu usuário assim:

C:\Users\<seu usuario>\.local\bin\claude.exe –model qwen3-coder:30b

A partir desse momento, o Claude Code já estará rodando localmente e interagindo com o modelo carregado no Ollama. Com base no seu conhecimento, defina os prompts, envie para o Claude Code e acompanhe a execução, confirmando/autorizando quando for solicitado.

Conclusão

Existem alguns pontos que precisam ser avaliados com cuidado antes de adotar esse tipo de setup. O primeiro deles é a limitação de hardware. Modelos maiores consomem mais memória e, dependendo do tamanho e da arquitetura escolhida, podem exigir uma GPU dedicada para entregar uma experiência fluida. Em máquinas mais modestas, isso pode significar tempos de resposta maiores ou a necessidade de optar por modelos menores e mais leves.

Outro fator relevante é a maturidade dos modelos open source. Embora tenham evoluído rapidamente, eles ainda podem ficar atrás dos modelos proprietários da Anthropic em tarefas mais complexas, como raciocínio profundo, planejamento de múltiplos passos ou compreensão de contextos muito extensos. Em cenários de alta complexidade, essa diferença pode aparecer. Ainda assim, para grande parte dos fluxos de desenvolvimento do dia a dia, como refatoração, automação de tarefas, geração de código e suporte a debugging, os resultados já são consistentes e confiáveis.

Dentro desse contexto, a integração entre Claude Code e Ollama se destaca por tornar os agentes de programação locais muito mais acessíveis. O Claude Code entrega uma experiência de agente bem definida, capaz de interagir com o projeto de forma ativa, enquanto o Ollama oferece a liberdade de escolher, trocar e ajustar modelos conforme a necessidade, tudo rodando na própria máquina.

No final, trata-se de uma solução especialmente atraente para quem prioriza privacidade, previsibilidade de custos e autonomia técnica. Você ganha a capacidade de experimentar, ajustar e evoluir seu fluxo de desenvolvimento com IA sem depender da nuvem, mantendo tudo concentrado no terminal e sob seu total controle.

David Matos

Compartilhar

  • Clique para compartilhar no X(abre em nova janela) 18+
  • Clique para compartilhar no Facebook(abre em nova janela) Facebook
  • Clique para compartilhar no LinkedIn(abre em nova janela) LinkedIn
  • Clique para compartilhar no WhatsApp(abre em nova janela) WhatsApp
  • Clique para compartilhar no Telegram(abre em nova janela) Telegram
  • Clique para compartilhar no Tumblr(abre em nova janela) Tumblr
  • Clique para compartilhar no Pinterest(abre em nova janela) Pinterest

Relacionado

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Assinar blog por e-mail

Digite seu endereço de e-mail para assinar este blog e receber notificações de novas publicações por e-mail.

Buscar

Tags Mais Comuns nos Posts

Agentes de IA Analytics Análise de Negócios Apache Spark Aprendizado AWS Big Data Blockchain Business Intelligence Carreira ChatGPT Cientista de Dados Cientistas de Dados Ciência de Dados Cloud Computing Data Lake Data Mesh Data Science Data Scientist Data Warehouse Deep Learning Deploy Engenharia de Dados Estatística GPU GraphRAG Hadoop IA Generativa Inteligência Artificial Internet of Things Linguagem Python Linguagem R LLM LLMs Machine Learning MCP (Model Context Protocol) Metadados Microsoft NVIDIA Oracle Predictive Analytics Probabilidade Python RAG Storytelling

Histórico de Posts

  • fevereiro 2026 (2)
  • janeiro 2026 (8)
  • dezembro 2025 (4)
  • novembro 2025 (7)
  • outubro 2025 (7)
  • setembro 2025 (5)
  • agosto 2025 (5)
  • julho 2025 (4)
  • junho 2025 (2)
  • maio 2025 (6)
  • abril 2025 (3)
  • março 2025 (5)
  • fevereiro 2025 (8)
  • janeiro 2025 (5)
  • dezembro 2024 (4)
  • novembro 2024 (1)
  • outubro 2024 (1)
  • setembro 2024 (1)
  • agosto 2024 (1)
  • julho 2024 (2)
  • junho 2024 (1)
  • maio 2024 (1)
  • abril 2024 (2)
  • março 2024 (1)
  • janeiro 2024 (1)
  • dezembro 2023 (1)
  • outubro 2023 (2)
  • setembro 2023 (1)
  • agosto 2023 (4)
  • julho 2023 (2)
  • junho 2023 (4)
  • maio 2023 (2)
  • abril 2023 (1)
  • março 2023 (3)
  • fevereiro 2023 (2)
  • janeiro 2023 (3)
  • dezembro 2022 (6)
  • novembro 2022 (5)
  • outubro 2022 (2)
  • setembro 2022 (2)
  • agosto 2022 (2)
  • julho 2022 (1)
  • junho 2022 (3)
  • maio 2022 (1)
  • abril 2022 (3)
  • março 2022 (1)
  • fevereiro 2022 (3)
  • janeiro 2022 (2)
  • dezembro 2021 (1)
  • novembro 2021 (4)
  • outubro 2021 (2)
  • setembro 2021 (2)
  • agosto 2021 (1)
  • junho 2021 (1)
  • fevereiro 2021 (2)
  • janeiro 2021 (1)
  • dezembro 2020 (1)
  • novembro 2020 (1)
  • outubro 2020 (2)
  • agosto 2020 (1)
  • abril 2020 (1)
  • março 2020 (1)
  • fevereiro 2020 (2)
  • agosto 2019 (1)
  • abril 2019 (1)
  • setembro 2018 (2)
  • julho 2018 (1)
  • junho 2018 (3)
  • abril 2018 (1)
  • março 2018 (1)
  • fevereiro 2018 (2)
  • janeiro 2018 (1)
  • dezembro 2017 (1)
  • novembro 2017 (1)
  • outubro 2017 (1)
  • setembro 2017 (1)
  • julho 2017 (1)
  • junho 2017 (1)
  • maio 2017 (2)
  • abril 2017 (1)
  • janeiro 2017 (1)
  • novembro 2016 (1)
  • outubro 2016 (1)
  • setembro 2016 (1)
  • julho 2016 (1)
  • junho 2016 (1)
  • maio 2016 (1)
  • abril 2016 (1)
  • fevereiro 2016 (1)
  • janeiro 2016 (3)
  • dezembro 2015 (4)
  • novembro 2015 (6)
  • outubro 2015 (9)
  • setembro 2015 (9)
  • agosto 2015 (9)
©2025 Ciência e Dados