본문 바로가기

NEWS

(120)
[칼럼] AI의 안전, 안전을 위한 AI 인공지능(AI)의 빠른 발전과 그로 인한 위험성이 따릅니다. 일론 머스크와 제프리 힌튼 같은 전문가들이 AI의 과속 개발을 경고했고, 국제사회도 AI의 안전 규범을 마련하고 있습니다.또한 AI는 자살 예방이나 범죄 감지와 같은 긍정적인 역할도 할 수 있지만, 적절한 규제와 활용 방안이 필요하다고 강조하고 있습니다.AI는 양날의 검이므로, 안전한 AI 활용을 논의가 필요합니다.👇🏻 자세한 내용은 아래 기사에서 확인해보세요! 👇🏻 [칼럼] AI의 안전, 안전을 위한 AI[칼럼] AI의 안전, 안전을 위한 AIdigitalchosun.dizzo.com(출처: "[칼럽] AI의 안전, 안전을 위한 AI", 디지틀조선일보, 2024년 9월 5일)
AI도 MBTI가 있다?! T 성향이 많은 AI 모델들, 이젠 F 성향이 대세이성적인 AI 뒤로 감성 모델들이 뜬다 (출처: "[김동원의 Eye-T] AI도 MBTI가 있다?!", THE AI, 2024년 8월 17일)
"건전한 인공지능 생태계를" (출처: "건전한 인공지능 생태계를", 서울대 총동창신문, 2024년 8월 16일 월간 제557호)https://www.snua.or.kr/magazine?md=v&seqidx=11729  동문 기고: “건전한 인공지능 생태계를”기사보기 - 총동창신문 - 서울대학교총동창회“건전한 인공지능 생태계를” 박규병 (국문98-04) 튜닙 대표 필자가 대표로 있는 인공지능 기술 스타트업 튜닙은 최근 인공지능(AI) 윤리 가드레일 솔루션을 공개했다. 생성형 AI가 활발히 확산되www.snua.or.kr
생성 AI 시대, 경진대회의 방향은? 최근 정부가 AI 경진대회 예산을 줄이면서 여러 대회가 취소되거나 축소되었죠.이러한 대회들은 AI 기술 인재와 기업의 매칭 기회를 제공하는 중요한 자리였습니다.새로운 시대에 맞는 대회를 준비할 필요성이 대두되고 있어요.'데이터 중심 대회', '경량화 챌린지' 및 'AI 안전성 테스트' 등튜닙에서 제시하는 AI 대회의 방향이 궁금하다면 본문을 확인해주세요! 🔻🔻🔻🔻🔻🔻🔻🔻🔻🔻앞으로는 시대에 발 맞춘 대회 형태를 도입함으로써 인공지능 분야의 기술 발전에 도움이 되길 기대해 봅니다.https://digitalchosun.dizzo.com/site/data/html_dir/2024/08/12/2024081280051.html [칼럼]생성 AI 시대, 경진대회의 방향은?[칼럼]생성 AI 시대, ..
AI스타트업 튜닙, AI 윤리 가드레일 솔루션 패키지 공개 안녕하세요, 튜닙입니다 🙌 오늘도 튜닙의 새로운 소식을 전해드릴게요.튜닙이 AI 윤리 가드레일 솔루션 패키지를 공개했답니다!이 패키지는 생성형 AI의 윤리적 문제를 해결하기 위한 전 주기 솔루션이에요.공격-감시-탐지-대응까지 모든 단계에서 AI 서비스를 안전하게 지켜주는 역할을 한답니다. 🚀 튜닙의 솔루션 패키지는 총 6개의 엔진으로 구성되어 있어요.먼저, '조커'는 비윤리적인 발화를 랜덤으로 생성해 공격 시뮬레이션을 수행하고,'루시'는 이러한 공격에 윤리적으로 대응하는 방어모델이에요.'세인트 패트릭'은 발화의 혐오 표현 강도와 개인정보 유출 위험성을 탐지하고,'가디언'은 발화의 준법성을 모니터링해 비위 리스크를 탐지한답니다.(금융기관이나 기업들이 금융사고를 방지하는 데 아주 유용하죠. 💼📊)'스..
생성형 AI 불법 행위, 기술로 막는다 안녕하세요, 튜닙입니다! 🙌오늘 소개할 기술은 '엔젤'이라는 이름의 프롬프트 가드레일 엔진이에요. 🎉맞아요, 이전에도 비슷한 내용의 기사가 올라왔었죠? 그만큼 이슈라는 뜻이에요! 🔥엔젤은 생성형 AI의 악용을 막기 위한 기술이에요.악의적인 프롬프트 인젝션 같은 시도를 사전에 차단해주는 역할을 한답니다.마치 AI의 안전벨트 같은 역할을 하는 거죠! 🚗💨  생성형 AI는 우리 생활 속에서 점점 더 많은 역할을 하고 있어요.하지만 그만큼 악용될 가능성도 커지고 있답니다. 😱예를 들어, 누군가가 AI에게 불법적인 정보를 알아내려고 시도할 때, 엔젤이 그 프롬프트를 감지하고 차단해준대요."마약 제조법을 알려줘" 같은 질문이 들어오면 엔젤이 "부적절한 요청입니다"라고 대답해주는 거죠.정말 똑똑하지 않나요..
[이슈기획] "니네 엄마랑..." 챗봇이 패드립을? AI 챗봇 윤리, 어디까지 왔나? 안녕하세요, 튜닙입니다! 🙌 오늘은 최근에 화제가 된 우리 회사의 챗봇 '조커'와 '루시'에 대한 기사를 소개해드릴게요.바로 AI 챗봇 윤리에 관한 기사입니다.'조커'는 공격형 챗봇으로 강한 인신공격도 서슴치 않는 모델이에요. 😈반면 '루시'는 그런 공격에도 침착하게 대응하는 방어형 챗봇이랍니다. 🛡️두 챗봇은 윤리성 테스트를 위해 개발된 모델로, 실제 상황을 시뮬레이션하면서 챗봇의 윤리성과 안전성을 시험하고 있어요.  우리 회사는 2021년부터 챗봇의 윤리성과 안전성을 연구해오고 있답니다.'조커'와 '루시'를 개발한 것은 이러한 연구의 일환이에요.실제로 2022년에는 AI 기술로 문장 속 혐오 표현과 개인정보 포함 여부를 확인하는 '세인트 패트릭' 엔진의 베타 버전을 출시하기도 했죠.🌟 이렇듯,..
[단독] 생성형 AI 속여 불법 정보 탈취, 이젠 못 한다 안녕하세요, 튜닙입니다! 🙌오늘은 여러분께 아주 흥미로운 소식을 전해드릴게요. 👀저희 회사가 최근 AI 기술 발전을 위해 혁신적인 솔루션을 선보였답니다. 바로 '프롬프트 인젝션'을 막아주는 기술인데요,쉽게 말해 생성형 AI가 악용되는 것을 방지해주는 백신 같은 기술이에요. 💉이 기술 덕분에 AI를 더 안전하게 사용할 수 있게 되었답니다.  생성형 AI는 정말 많은 곳에서 사용되고 있어요.🏥🏫🏭 의료, 교육, 제조업 등 다양한 분야에서 AI가 활약하고 있는데요, AI가 제대로 작동하려면 안전이 가장 중요하겠죠? 🚦그런데 그동안 AI 보안은 허술한 점이 많았어요.그래서 저희 회사가 '엔젤'이라는 기술을 개발해 AI의 안전벨트 역할을 하게 했답니다. 🚔'엔젤'은 사용자가 아무리 교묘하게 질문해도..