Leve seu Código para o Próximo Nível com um Copiloto Local
Leve seu código para o próximo nível com um copiloto local. Descubra como usar o LMStudio e o Olama para servir modelos Llama3 dentro da extensão Code GPT do VS Code para capacidades de programação aprimoradas.
16 de abril de 2025

Desbloqueie seu potencial de codificação com um copiloto de IA local gratuito que leva sua produtividade a novos patamares. Descubra como integrar perfeitamente modelos de linguagem poderosos como o Llama3 em seu fluxo de trabalho de desenvolvimento, capacitando-o a escrever um código melhor, refatorar de forma eficiente e impulsionar sua experiência geral de codificação.
Aprenda como configurar um Co-Piloto Local para suas necessidades de codificação
Aproveite o LM Studio para servir modelos Llama3 localmente
Descubra o poder do Olama como uma solução de Co-Piloto Local de código aberto
Conclusão
Aprenda como configurar um Co-Piloto Local para suas necessidades de codificação
Aprenda como configurar um Co-Piloto Local para suas necessidades de codificação
Nesta seção, exploraremos como configurar um co-piloto local para suas necessidades de codificação usando o LM Studio e o Olama. Abordaremos as etapas para instalar as extensões necessárias, configurar os servidores locais e aproveitar o poder dos modelos Llama3 para melhorar sua experiência de codificação.
Primeiro, nos concentraremos em configurar o LM Studio como um servidor de API para servir o modelo Llama3 Instruct Gradient de 1 milhão de tokens. Guiaremos você pelo processo de carregar o modelo, criar um servidor local e integrá-lo à extensão Code GPT no Visual Studio Code.
Em seguida, apresentaremos o Olama como uma alternativa de código aberto ao LM Studio. Demonstraremos como baixar e instalar o Olama, iniciar o servidor e conectar o modelo Llama3 de 70 bilhões ao Code GPT. Isso lhe fornecerá uma solução totalmente de código aberto para suas necessidades de co-piloto local.
Ao longo da seção, testaremos as capacidades do LM Studio e do Olama fornecendo prompts e observando as respostas dos modelos Llama3. Também exploraremos as capacidades de refatoração do modelo maior de 70 bilhões e compararemos o desempenho com o modelo de 8 bilhões usado anteriormente.
No final desta seção, você terá um entendimento sólido de como configurar um co-piloto local usando tanto o LM Studio quanto o Olama, permitindo que você aproveite o poder dos modelos Llama3 para suas tarefas e projetos de codificação.
Aproveite o LM Studio para servir modelos Llama3 localmente
Aproveite o LM Studio para servir modelos Llama3 localmente
Para usar o Llama3 como seu co-piloto no VS Code, você pode aproveitar o LM Studio para servir os modelos Llama3 localmente. Essa abordagem permite que você execute os modelos em sua própria máquina, sem depender de uma API externa como o Grok.
Primeiro, instale a extensão Code GPT no VS Code. Em seguida, siga estas etapas:
- Baixe e execute o LM Studio em sua máquina.
- Procure pelo modelo Llama3 que você deseja usar, como o modelo Llama3 Instruct Gradient de 1 milhão de tokens.
- Crie um servidor local no LM Studio para servir o modelo Llama3 selecionado.
- No VS Code, certifique-se de selecionar o LM Studio como o provedor nas configurações da extensão Code GPT.
Agora, você pode testar a integração pedindo ao modelo Llama3 que escreva um programa Python que faça o download de um arquivo do S3 e o armazene localmente. O modelo se comunicará com o servidor LM Studio para gerar a resposta.
Embora a velocidade possa não ser tão rápida quanto o uso da API Grok, essa abordagem permite que você execute os modelos localmente, sem depender de um serviço externo. Além disso, você pode explorar outros modelos disponíveis no LM Studio e usá-los como seu co-piloto de codificação no VS Code.
Descubra o poder do Olama como uma solução de Co-Piloto Local de código aberto
Descubra o poder do Olama como uma solução de Co-Piloto Local de código aberto
Para usar o Olama como seu co-piloto dentro da extensão Code GPT, siga estas etapas:
- Baixe e instale o Olama no site oficial, olama.com.
- Inicie o servidor Olama clicando no aplicativo Olama.
- Na extensão Code GPT, selecione o Olama como o provedor.
- Especifique o modelo que você deseja usar, como o modelo Llama3 de 70 bilhões.
- Para iniciar o servidor do modelo Llama3 de 70 bilhões, abra um terminal e execute o comando
olama run llama3-70b
. - Assim que o modelo for carregado, você poderá começar a usar o Olama como seu co-piloto dentro da extensão Code GPT.
O Olama é uma solução totalmente de código aberto, diferentemente do LM Studio, que possui alguns componentes proprietários. Embora o LM Studio ofereça mais flexibilidade em termos dos modelos que você pode usar, o Olama fornece uma alternativa totalmente de código aberto.
Ao usar o Olama, você precisará iniciar manualmente o servidor do modelo, o que pode ser um pouco mais envolvido do que a configuração do LM Studio. No entanto, essa abordagem permite que você tenha total controle sobre o modelo que está usando e garante que sua solução de co-piloto seja totalmente de código aberto.
A qualidade da saída do Olama dependerá do modelo que você estiver usando, e o modelo Llama3 de 70 bilhões deve fornecer um desempenho melhor em comparação ao modelo de 8 bilhões. Tenha em mente que executar um modelo grande localmente pode resultar em velocidades de inferência mais lentas em comparação ao uso de uma API baseada em nuvem como o Grok.
Em geral, o Olama é uma ótima opção de código aberto para executar seu co-piloto localmente e pode ser uma ferramenta valiosa em seu fluxo de trabalho de desenvolvimento.
Conclusão
Conclusão
Neste vídeo, exploramos duas alternativas locais à API Grok para usar o Llama3 como um co-piloto de codificação no VS Code. Primeiro, configuramos o LM Studio como um servidor de API para servir o modelo Llama3 Instruct Gradient de 1 milhão de tokens. Em seguida, demonstramos como usar esse modelo dentro da extensão Code GPT no VS Code, mostrando sua capacidade de gerar código e fornecer sugestões de refatoração.
Depois, analisamos o uso do Olama como uma solução de código aberto para executar modelos de linguagem locais. Percorremos o processo de iniciar o servidor Olama e conectar a extensão Code GPT ao modelo Llama3 de 70 bilhões de parâmetros. Embora o desempenho tenha sido mais lento em comparação à API Grok, a configuração local proporcionou mais controle e flexibilidade.
O vídeo destacou os trade-offs entre as duas abordagens, com o LM Studio oferecendo uma gama mais ampla de opções de modelos, mas sendo uma solução de código fechado, enquanto o Olama forneceu uma alternativa de código aberto com uma seleção de modelos mais limitada. No final, ambas as abordagens demonstraram a capacidade de aproveitar os poderosos modelos de linguagem para assistência de codificação em um ambiente local, reduzindo a dependência de APIs externas.
Perguntas frequentes
Perguntas frequentes