読む

    ローカルLLMを使用するためのネイティブMacOSアプリ

    注目
    6 投票
    読む - ローカルLLMを使用するためのネイティブMacOSアプリメディア1
    読む - ローカルLLMを使用するためのネイティブMacOSアプリメディア2

    説明

    OllamaモデルとチャットするためのネイティブMACOSアプリ機能 - メモリの使用量が少ないと高速アプリの起動時間 - 複数のチャットスレッドのサポート - 異なるモデル間の切り替え - マークダウンサポート - 自動チャットスレッドタイトル要約

    推奨製品