튜닙의 '윤리성 판별(Safety Check) API'이 네이버의 'AI 클린봇' 등과 함께 인터넷 혐오 표현 대응 기술로 주목받고 있습니다 🙌
인터넷 악성 댓글과 혐오 표현은 당사자에게 상처를 주는 것은 물론, 해당 내용에 노출되는 사람들의 눈살을 찌푸리게 만들죠.
최근에는 SNS상으로 악플과 혐오 표현 문제가 확장되어 서비스 윤리 강화의 필요성이 강조되고 있습니다.
튜닙은 '윤리성 판별(Safety Check) API'를 개발하여 인터넷 악성 댓글, 혐오 표현 문제를 해결하기 위해 노력하고 있습니다.
'윤리성 판별(Safety Check) API'는 AI 기술을 활용해 비속어, 악플 등의 혐오 표현을 탐지하고 걸러주는 기술인데요,
'윤리성 판별(Safety Check) API'는 아래의 4단계로 혐오 표현을 필터링 및 대응하게 됩니다.
1. 사용자가 입력한 텍스트의 문맥 분석 및 혐오 표현 자동 탐지
2. 탐지된 내용을 모욕, 욕설, 폭력·위협, 범죄 조장 등 11가지 카테고리로 분류
3. 모욕, 욕설, 폭력·위협, 범죄 조장 등 11가지 카테고리로 분류
4. 혐오 표현 대체 단어 제안
온라인의 윤리 문제나 인공지능 윤리 문제는 기술의 발전과 더불어 늘 고민해야 하는 본질적 문제인 만큼,
튜닙은 윤리성 판별 엔진 개발을 시작으로 대화 문맥상의 윤리성 문제, 인공지능 모델의 윤리성 문제를 총체적으로 점검하고 수치화할 수 있는 솔루션 개발을 진행 중에 있습니다.
해당 내용은 디지털 타임스 기사를 통해 확인하실 수 있습니다 😉
'NEWS' 카테고리의 다른 글
[2022.11.22] 튜닙, 삼성 소프트웨어 개발자 콘퍼런스(SSDC) 참가 (0) | 2022.11.22 |
---|---|
[2022.11.14] 튜닙, '2022 뉴스빅데이터 해커톤' 한국언론진흥재단 이사장상 수상 (0) | 2022.11.14 |
[2022.11.01] 튜닙 고현웅 연구원 참여, 한국어 초거대 모델 '폴리글롯 한국어(polyglot korean)' 공개 (0) | 2022.11.01 |
[2022.10.26] N행시 API로 시작된 열풍, 튜니브리지로 이어간다 (0) | 2022.10.26 |
[2022.10.25] 튜닙, 국내 NLP 기술 혁신 주도하는 AI 스타트업으로 주목 (0) | 2022.10.25 |