Vela é um aplicativo desktop moderno no estilo "Claude/Cowork", focado em rodar Modelos de Linguagem (LLMs) self-hosted localmente via Ollama, garantindo alta performance, baixo uso de RAM e privacidade máxima.
- Desktop Wrapper: Tauri (Rust backend)
- Frontend: React + Vite + TypeScript
- UI & Componentes: Ant Design (AntD) + Ant Design X (AntX)
- Local LLM Engine: Ollama (
localhost:11434) - Integração de Skills (MCP): Python Sidecar via protocolo MCP
- Artefatos e Renderização: Sandpack
Siga os passos abaixo para configurar o Vela no seu ambiente local (Mac M4 Max/Apple Silicon recomendado).
- Rust & Cargo:
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
- Node.js & npm/pnpm/yarn: Recomenda-se Node.js v18 ou superior.
- Python 3.10+: Necessário para rodar o sidecar MCP.
- Ollama: Instale a versão desktop aqui e baixe o modelo desejado (ex:
ollama run llama3).
- Clone o repositório:
git clone [email protected]:wagnermoschini/vela.git cd vela
- Instale as dependências do Frontend:
npm install
- Inicie o lado Rust (Tauri) aliado ao Frontend (Vite) em modo de desenvolvimento:
npm run tauri dev
O aplicativo abrirá nativamente com carregamento via modo debug, permitindo Hot Module Replacement (HMR). O backend em Rust será recompilado à medida que o projeto sofrer alterações sensíveis da casca desktop.
/src- Componentes React, regras de UI AntX e layout minimalista (3 painéis)./src-tauri- Rust backend e o manifesto (tauri.conf.json)./src-tauri/python- Pipeline de MCP usando scripts python nativos via stdio stdin/stdout.
Siga este passo a passo para validar todas as funcionalidades desenvolvidas.
O Vela utiliza um sidecar Python para RAG e Ferramentas (MCP). Instale as dependências necessárias:
pip install lancedb tavily-python python-dotenv- Na raiz do projeto, você encontrará um arquivo
.env. - Insira sua
TAVILY_API_KEY(obtenha em tavily.com). - (Opcional) Insira seu
ATLASSIAN_API_TOKENse desejar testar o conector Rovo.
Rode o comando:
npm run tauri dev- O que observar: O Vela detectará se você já tem os modelos (
llama3.1:8beqwen2.5-coder:7b) instalados. Caso não tenha, ele oferecerá a instalação em um clique com barra de progresso.
O Vela nunca esquece. Faça o seguinte teste:
- No chat, diga: "O código secreto do projeto é VELA-2026".
- Clique no botão "New Project" na barra lateral para limpar a sessão.
- Pergunte: "Qual é o código do projeto?".
- Resultado: O Vela fará uma busca no LanceDB local e recuperará a informação correta.
Teste o acesso à internet:
- Pergunte: "Quais as notícias mais recentes sobre IA hoje?".
- Resultado: O Vela invocará a tool
web_search, acessará o Tavily e trará resultados reais com links.
O Vela gerencia o próprio futuro. Tente:
- Diga: "Adicione 'Criar tema Dark Mode' ao meu backlog".
- Verifique o arquivo
backlog.mdna raiz do seu computador.
- Resultado: O item será adicionado com data e prioridade automaticamente.
Se algo não estiver funcionando, vá na aba "Diagnostics" na barra lateral.
- Verifique se os indicadores de Ollama, MCP Sidecar e LanceDB estão verdes.
Este projeto é licenciado sob a MIT License.