██████╗ █████╗ ███╗ ██╗ ██╗ ██████╗ ██╗ ██╗███╗ ██╗ █████╗ ██╗██████╗ ██╔════╝██╔══██╗████╗ ██║ ██║ ██╔══██╗██║ ██║████╗ ██║ ██╔══██╗██║╚════██╗ ██║ ███████║██╔██╗ ██║ ██║ ██████╔╝██║ ██║██╔██╗ ██║ ███████║██║ ▄███╔╝ ██║ ██╔══██║██║╚██╗██║ ██║ ██╔══██╗██║ ██║██║╚██╗██║ ██╔══██║██║ ▀▀══╝ ╚██████╗██║ ██║██║ ╚████║ ██║ ██║ ██║╚██████╔╝██║ ╚████║ ██║ ██║██║ ██╗ ╚═════╝╚═╝ ╚═╝╚═╝ ╚═══╝ ╚═╝ ╚═╝ ╚═╝ ╚═════╝ ╚═╝ ╚═══╝ ╚═╝ ╚═╝╚═╝ ╚═╝
Descubra quais modelos de IA seu PC consegue rodar
Detectamos seu hardware automaticamente e mostramos os melhores modelos para você.
Modelos Recomendados
116 modelosAprenda a Rodar IA Local
Tutoriais, demos e benchmarks dos melhores canais

Pronto para rodar?
Instale o Ollama e execute qualquer modelo com um único comando. Clique em "ollama pull" nos cards acima para copiar o comando.
Detecte pelo Terminal
Um comando. Detecta GPU, CPU e RAM, mostra os top 3 modelos pra você e abre o site com tudo preenchido.
npx can-i-run-aiZero dependências
Usa apenas Node.js built-ins. Nada pra instalar além do npx.
Cross-platform
Windows, macOS e Linux. Detecta hardware via comandos nativos do SO.
100% open source
Código aberto no GitHub. Nenhum dado enviado pra servidores.
Apps nativos — em breve
Windows 10 e 11 — .exe portátil
Apple Silicon & Intel — app nativo
Ubuntu, Fedora, Arch — AppImage
Sobre o CanIRunAI
O CanIRunAI ajuda você a descobrir quais modelos de inteligência artificial rodam no seu computador. Detectamos seu hardware automaticamente e calculamos a compatibilidade com dezenas de modelos populares do ecossistema open-source.
Detecção automática
GPU, RAM e CPU detectados via WebGL e APIs do navegador.
Performance estimada
Tok/s e tempo de resposta escalados pelo bandwidth da sua GPU.
100% local
Nenhum dado sai do seu navegador. Tudo roda client-side.
Compatível com Ollama, LM Studio e outros runtimes locais. Dados de benchmark baseados em medições reais com RTX 3060 como baseline.