CNET Korea뉴스비즈니스

카카오, 국제 무대서 ‘안전한 AI’ 전략 공개

국가인권위·법무부 공동 포럼서 기술윤리 활동 공유…아동·청소년 보호 강화

카카오 CI(사진=카카오)

(씨넷코리아=김태훈 기자) 카카오는 8일 국가인권위원회와 법무부가 공동 주최한 ‘기업과 인권 국제포럼’에 참여해 안전하고 책임 있는 AI를 위한 자사의 전략과 노력을 소개했다.

이번 포럼은 글로벌 규제 동향과 기업 사례를 공유하며 인권 경영 강화를 모색하기 위해 열렸으며, 유엔개발계획(UNDP), 유럽연합(EU), OECD 등 국제기구와 학계, 시민사회 전문가들이 참석했다.

카카오는 ‘규제와 자발적 조치를 활용한 스마트믹스 모범 사례’ 세션에서 발표를 맡아 AI 기술과 인권 존중을 주제로 윤리 원칙과 리스크 관리 사례를 공유했다. 카카오는 국내 기업 최초로 2022년 ‘그룹 기술 윤리 위원회’를 출범시켜 서비스 전반의 AI 윤리 준수 여부, 알고리즘 투명성, 위험성 점검 등을 체계적으로 수행해 왔다. 위원회는 매년 ‘그룹 기술 윤리 보고서’를 발간하며 정책적 노력을 소개하고 있다.

아울러 카카오는 ▲AI 윤리 가이드라인 제정 ▲자가점검 도구 개발 ▲AI 리스크 관리 체계 ‘Kakao AI Safety Initiative’ 구축 ▲글로벌 AI 얼라이언스 가입 등 다양한 활동을 추진 중이다. 최근에는 AI 안전성을 검증하는 ‘카나나 세이프가드(Kanana Safeguard)’ 모델을 자체 개발해 국내 기업 최초로 오픈소스로 공개했다.

특히 아동·청소년 보호를 위한 디지털 체크리스트를 올해 새롭게 도입했다. 이 체크리스트는 국내 청소년 보호법뿐 아니라 유엔아동권리협약(UNCRC), 유니세프의 ‘디지털 아동영향평가도구(UNICEF D-CRIA)’ 기준을 반영해 설계됐다. 카카오는 서비스 출시 전 리스크 점검과 완화조치, 정책 거버넌스 검토를 통해 실효성 있는 보호체계를 강화하고 있다.

이상호 카카오 그룹 기술윤리 소위원장은 “AI의 빠른 발전은 인권과 프라이버시와 직결되는 만큼 기업의 책임 의식이 필수적”이라며 “카카오는 아동·청소년을 포함한 모든 이용자 보호를 위해 글로벌 기준에 맞춘 윤리적 AI 개발을 이어갈 것”이라고 강조했다.

김태훈 기자ifreeth@cnet.co.kr

IT를 좋아하는, 넓은 마음을 가진 행복한 낙천주의자 입니다^^