Llamaは、7Bから65Bのパラメーターの範囲の基礎言語モデルのコレクションであり、独自のアクセスできないデータセットに頼ることなく、公開されたデータセットのみを使用して最先端のモデルをトレーニングできることを示しています。