Autohostllm
Calcule a memória da GPU necessária para a inferência de LLM
Destaque
110 Votos

Descrição
Calcule os requisitos de memória da GPU e as solicitações simultâneas máximas de inferência de LLM auto-hospedada.Apoio a Llama, Qwen, Deepseek, Mistral e muito mais.Planeje sua infraestrutura de IA com eficiência.