본문 바로가기

NEWS

[2022.11.02] 악플, 혐오 표현 잡아내는 튜닙의 '윤리성 판별(Safety Check) API'

튜닙의 '윤리성 판별(Safety Check) API'이 네이버의 'AI 클린봇' 등과 함께 인터넷 혐오 표현 대응 기술로 주목받고 있습니다 🙌

인터넷 악성 댓글과 혐오 표현은 당사자에게 상처를 주는 것은 물론, 해당 내용에 노출되는 사람들의 눈살을 찌푸리게 만들죠.

최근에는 SNS상으로 악플과 혐오 표현 문제가 확장되어 서비스 윤리 강화의 필요성이 강조되고 있습니다.

튜닙의 윤리성 판별! 클린봇 api? 세이프티 api!


튜닙은 '윤리성 판별(Safety Check) API'를 개발하여 인터넷 악성 댓글, 혐오 표현 문제를 해결하기 위해 노력하고 있습니다.

'윤리성 판별(Safety Check) API'는 AI 기술을 활용해 비속어, 악플 등의 혐오 표현을 탐지하고 걸러주는 기술인데요,

'윤리성 판별(Safety Check) API'는 아래의 4단계로 혐오 표현을 필터링 및 대응하게 됩니다.

1. 사용자가 입력한 텍스트의 문맥 분석 및 혐오 표현 자동 탐지

2. 탐지된 내용을 모욕, 욕설, 폭력·위협, 범죄 조장 등 11가지 카테고리로 분류

3. 모욕, 욕설, 폭력·위협, 범죄 조장 등 11가지 카테고리로 분류

4. 혐오 표현 대체 단어 제안

온라인의 윤리 문제나 인공지능 윤리 문제는 기술의 발전과 더불어 늘 고민해야 하는 본질적 문제인 만큼,

튜닙은 윤리성 판별 엔진 개발을 시작으로 대화 문맥상의 윤리성 문제, 인공지능 모델의 윤리성 문제를 총체적으로 점검하고 수치화할 수 있는 솔루션 개발을 진행 중에 있습니다.

해당 내용은 디지털 타임스 기사를 통해 확인하실 수 있습니다 😉

 

AI로 악플·혐오표현 잡아낸다…비토·네이버·튜닙, 필터링 기능 선봬

AI 기술로 비속어·악플 등 악성표현 탐지해 필터링하거나 대체 단어 제시해 서비스 윤리 강화 AI 기술을 활용해 비속어, 악플 등의 혐오 표현을 탐지하고 걸러주는 기술들이 선보여 주목된다. 통

n.news.naver.com