Lire

    Application macOS native pour l'utilisation des LLM locales

    En vedette
    6 Votes
    Média Lire 1
    Média Lire 2

    Description

    Une application macOS native pour discuter avec les fonctionnalités des modèles Olllama - Utilisation de la mémoire basse et temps de lancement rapide des applications - Prise en charge de plusieurs threads de chat - basculez entre les différents modèles - support Markdown - Résumé du titre du thread de chat Automatique

    Produits recommandés