Como Calculamos
Entenda a metodologia por trás das recomendações do CanIRunAI
Visão Geral
O CanIRunAI analisa seu hardware (GPU, CPU e RAM) e calcula a compatibilidade com cada modelo de IA local. Todos os scores são baseados em medições reais com RTX 3060 como baseline.
Sistema de Tiers
Cada modelo recebe um tier baseado na velocidade estimada (tokens por segundo) no seu hardware.
Respostas quase instantâneas. Experiência fluida para qualquer uso.
Boa velocidade. Confortável para chat, coding e uso geral.
Funcional mas perceptivelmente mais lento. OK para tarefas não-interativas.
Utilizável com paciência. Respostas longas podem demorar minutos.
Não cabe na memória ou é lento demais para uso prático.
Estimativa de VRAM
O modelo precisa caber na memória da GPU (VRAM). Usamos quantização Q4_K_M como padrão — o melhor equilíbrio entre qualidade e tamanho.
Quantização
Reduz a precisão dos pesos do modelo para diminuir o tamanho e acelerar a inferência.
Como o modelo encaixa
Modelo usa até 85% da VRAM. Performance total, sem penalidades.
Modelo cabe na VRAM mas sem folga. 30% de penalidade por pressão de memória.
Parte na GPU, resto na RAM. 40-80% de penalidade dependendo da proporção.
Sem GPU dedicada. Usa 60% da RAM. 88-94% de penalidade vs GPU.
Memória insuficiente. Modelo não pode ser carregado.
Escala por Bandwidth
A velocidade escala linearmente com o bandwidth da GPU. O RTX 3060 (360 GB/s) é o baseline.
Fator RAM
A quantidade de RAM do sistema influencia a performance. 16GB é o baseline (fator 1.0).
Faixa: 0.65× (4GB) até 1.18× (32GB+)
Fator CPU
A CPU afeta ~40% da performance em modo GPU (tokenização, KV cache, transferência). Em modo CPU-only, é 100% do impacto.
Score Final (0-100)
O score geral é uma média ponderada de quantos modelos rodam em cada tier.