ラマ

    基礎、65億パラメーターの大規模な言語モデル

    注目
    120 投票
    ラマ - 基礎、65億パラメーターの大規模な言語モデルメディア1
    ラマ - 基礎、65億パラメーターの大規模な言語モデルメディア2
    ラマ - 基礎、65億パラメーターの大規模な言語モデルメディア3
    ラマ - 基礎、65億パラメーターの大規模な言語モデルメディア4
    ラマ - 基礎、65億パラメーターの大規模な言語モデルメディア5

    説明

    Llamaは、7Bから65Bのパラメーターの範囲の基礎言語モデルのコレクションであり、独自のアクセスできないデータセットに頼ることなく、公開されたデータセットのみを使用して最先端のモデルをトレーニングできることを示しています。

    推奨製品