安全チェック(KOR)は、非倫理的な表現を11の異なるカテゴリに分類する安全エンジンです。深い学習分類モデルを使用すると、Safety Checkは指定されたテキストを正確なカテゴリに分類し、その予測の可能性を表示します。