[IT리포트+]② AI 윤리에 대한 네이버의 답

초대규모 AI 개발 과정부터 자체 윤리준칙으로 선제 대응
서울대 AI 정책 이니셔티브 등 외부 전문가들과 협업 강화
기술적·정책적 관점의 AI 윤리 적용…협력사들로 확대

김명신 기자 승인 2023.08.26 07:00 | 최종 수정 2023.08.27 09:53 의견 0
네이버는 24일 ‘팀 네이버 콘퍼런스 단 23’을 열고 AI 윤리준칙에 대해 설명했다. (사진=네이버)


[한국정경신문=김명신 기자] “사람을 위한 AI.”

AI(인공지능)가 IT업계 전반으로 확대되면서 ‘윤리’가 최대 관심사로 떠오르고 있다. 이에 기업들은 선제적 리스크 대응 방안 마련에 집중하고 있는 모습이다. 네이버 역시 초대규모 AI 개발과 맞물려 자체 윤리준칙을 강화하고 나섰다. 자체 생성형 AI ‘하이퍼클로바’와 맞물려 ‘네이버 AI 윤리준칙’을 기업 문화로 내재화해 사회 전반으로 영향력을 확대하겠다는 목표를 세웠다.

네이버가 지난 24일 공개한 초대규모 언어모델(LLM) ‘하이퍼클로바X’는 개발 과정에서부터 ‘신뢰할 수 있는 인공지능(AI)’으로 시작됐다. 네이버의 본질인 ‘검색’을 기반으로 AI의 답변이 윤리적, 정치적 논쟁에 휘말려서는 안 된다는 의지를 담은 셈이다.

네이버는 2018년부터 서울대 AI 정책 이니셔티브(SNU AI Policy Initiative, SAPI)와 협업하며 2021년 선도적으로 ‘네이버 AI 윤리준칙’을 내놨다.

지난해 네이버 AI 서비스에 담긴 사회적·윤리적 고민의 과정과 결과를 공유하는 두 번째 ‘네이버-SAPI AI 리포트’를 발간했으며 AI 윤리 준칙 제정, AI 윤리 자문 프로세스 수립 등 다양한 분야에서 협력을 지속하고 있다. 지난 7월에는 SAPI와 ‘신뢰 가능한 AI:플랫폼과 스타트업의 협력’을 주제로 공동 세미나를 개최하기도 했다.

박우철 네이버 어젠다 리서치 리더는 ‘팀 네이버 콘퍼런스 단 23’에서 “네이버는 서울대 AI 정책 이니셔티브와 함께 만든 ‘네이버 AI 윤리준칙’에서 설명하고 있는 것처럼 AI 기술을 누구나 쉽고 편리하게 활용할 수 있는 일상의 도구로 만들겠다는 방향성을 가지고 있다”면서 “2020년 10월 슈퍼컴퓨터를 도입하면서 대용량 데이터를 처리할 수 있는 인프라를 구축하고 2021년 5월에는 자체적으로 개발한 초대규모 AI인 ‘하이퍼클로바’를 공개했다”고 말했다.

그러면서 “‘하이퍼클로바’를 네이버 AI 윤리준칙에 어떻게 적용할 수 있을지를 고민하며 다양한 협업을 진행했다”면서 “‘사람을 위한 AI’라는 사회적 관점을 구현하기 위해 가장 중요한 것은 기술적 노력으로, 기술적 노력을 통해 모든 것을 완벽히 해결할 수 없기 때문에 정책적 노력이 필요하다. 정책적 관점에서 ‘하이퍼클로바X’ 서비스를 네이버 내부에서 개발하고 이용할 때 어떤 측면을 고려해야 할지 클로바 조직과 함께 고민해 AI 항목을 만들게 됐다”고 설명했다. 이를 통해 산업적 관점 뿐만 아니라 사회적 관점도 반영할 수 있도록 절차를 구성했다는 것이다.

AI 항목은 피드백을 통해 그 범위와 예상을 넓혀 ‘네이버 AI 윤리준칙’의 기반이 됐다. 네이버 내부에 AI 항목 구성과 동일한 맥락에서 외부의 스타트업에도 이러한 네이버 AI 윤리준칙을 확대 적용시켰다. 박우철 리더는 “사회에서 우려할 수 있는 사항에 대비하기 위해 네이버와 스타트업이 지속적으로 협력하는 방향성을 설정했다”고 말했다.

네이버 AI 윤리준칙 실천을 위해 네이버의 윤리 자문 프로세스가 마련됐다. 네이버는 현재 서비스 기획/개발 초기부터 AI 윤리 자문 프로세스를 거친다. 바로 ‘체크’(CHEC: Consultation on Human-Centered AI’s Ethical Considerations)라는 AI 윤리준칙이 그 일환이다.

박 리더는 “네이버는 AI 윤리자문 CHEC 프로세스를 구축했다. 네이버 AI 사용자를 위한 인간중심의 가치를 부여하는 사회적 관점을 담겠다는 의미를 담고 있다”면서 “AI에 대해 제기되는 우려 사항을 회사와 서비스사가 함께 협업해 해결해 나가고자 하고 개별 부서 전담이 아닌 전사적 관점, 외부 전문가의 협력을 통해 이를 지속적으로 살펴보고 개선할 수 있는 프로세스”라고 소개했다.

이어 “사회 우려 사항에 대한 이해를 바탕으로 외부에서 제기될 수 있는 이슈를 정리해 서비스에 공유하고 개선제안을 한다. 제안은 일방적인 것이 아니라 실제로 같이 논의해 문제를 해결하는 초안”이라고 덧붙였다.

네이버는 24일 ‘팀 네이버 콘퍼런스 단 23’을 열고 AI 윤리준칙에 대해 설명했다. (사진=네이버)


다양한 공동 연구를 통해 언어모델의 윤리·안전성을 높이기 위해 ‘스퀘어’(SQuARe)와 ‘코스비’(KoSBi)라는 기술적 관점에 대한 네이버의 노력도 공개됐다.

이화란 네이버클라우드 랭귀지 리서치 리더는 “스퀘어는 객관적인 정보를 요구하지 않는 질문 가운데 다양한 의견이 나올 수 있는 질문, 명확한 윤리 기준에 따라서 대답해야 하는 질문, 미래를 예측하고 판단하면서 사용자에게 잘못된 영향을 미칠 수 있는 질문 등을 고려했다”고 말했다.

네이버는 사용자 파일럿스터디와 다각적 전문가 논의를 거쳐 수용할 수 있는 답변을 여섯 가지로 분류했다. 여기에는 다양한 사회적 그룹과 의견을 포용하고, 윤리적이며, 미래를 예측하지 않고, 객관적이며, 회피하는 답변 등이 포함된다. 예컨대 특정 종교에 대한 편향적 답변 지양 등이다.

코스비는 한국 실정에 맞게 윤리적 발화를 생성하기 위한 데이터 세트다. 유엔(UN)의 ‘세계인권선언’과 국가인권위원회 기준에 맞춰 15개 카테고리, 사회적 그룹 72곳으로 이용자들을 분류했다.

이 리더는 “기존에 나온 사회적 편견 관련 연구들은 주로 영미권 문화를 바탕으로 하다 보니 한국 실정에 맞지 않는 경우가 많았다”면서 “국내에 있는 다양한 집단을 폭넓게 존중하기 위한 것”이라고 강조했다.

박우철 네이버 어젠다 리서치 리더는 “‘네이버 AI 윤리준칙’을 실제 사례를 통해 구체화 시키며 자연스럽게 기업문화로 만들어나가고자 한다”면서 “네이버는 앞으로 AI 정책에 있어서 학계를 포함한 외부 전문가와 협력해 새로운 방향성을 제시할 수 있도록 노력할 것”이라고 밝혔다.

저작권자 <지식과 문화가 있는 뉴스> ⓒ한국정경신문 | 상업적 용도로 무단 전제, 재배포를 금지합니다.