안전 점검 (KOR)은 비 윤리적 표현을 11 가지 범주로 분류하는 안전 엔진입니다.깊은 학습 분류 모델을 통해 안전 점검은 주어진 텍스트를 정확한 범주로 분류하고 예측 가능성을 표시합니다.