야마

    기본적으로 650 억 파라미터 큰 언어 모델

    추천
    120 투표
    야마 - 기본적으로 650 억 파라미터 큰 언어 모델 미디어 1
    야마 - 기본적으로 650 억 파라미터 큰 언어 모델 미디어 2
    야마 - 기본적으로 650 억 파라미터 큰 언어 모델 미디어 3
    야마 - 기본적으로 650 억 파라미터 큰 언어 모델 미디어 4
    야마 - 기본적으로 650 억 파라미터 큰 언어 모델 미디어 5

    설명

    LLAMA는 7B에서 65B 매개 변수 범위의 기초 언어 모델 모음이며 독점적이고 접근 할 수없는 데이터 세트에 의존하지 않고 공개적으로 이용 가능한 데이터 세트를 사용하여 최첨단 모델을 훈련시킬 수 있음을 보여줍니다.

    추천 제품