Selfhostllm
Calculez la mémoire GPU dont vous avez besoin pour l'inférence LLM
En vedette
110 Votes

Description
Calculez les exigences de mémoire GPU et les demandes compatives maximales pour l'inférence LLM auto-hébergée.Soutien à Llama, Qwen, Deepseek, Mistral et plus encore.Planifiez efficacement votre infrastructure d'IA.