安全チェック(kor v0.5.1)

    1つの唯一の安全チェックモデルを紹介します

    注目
    8 投票
    安全チェック(kor v0.5.1) - 1つの唯一の安全チェックモデルを紹介しますメディア2
    安全チェック(kor v0.5.1) - 1つの唯一の安全チェックモデルを紹介しますメディア3

    説明

    安全チェック(KOR)は、非倫理的な表現を11の異なるカテゴリに分類する安全エンジンです。深い学習分類モデルを使用すると、Safety Checkは指定されたテキストを正確なカテゴリに分類し、その予測の可能性を表示します。

    推奨製品