상세 컨텐츠

본문 제목

인공지능(AI)과 윤리 문제 : 인공지능 챗봇 이루다와 인공지능 윤리기준(AI)을 중심으로

디지털콘텐츠/이슈리포트

by 디지털콘텐츠기업 성장지원센터 2022. 10. 25. 13:58

본문

20221213, 스캐터랩은 인공지능 딥러닝을 기반으로 한 AI 챗봇 이루다를 개발·출시했습니다. 이루다는 페이스북 메신저를 통해 일상적인 대화를 나누는 대화형 인공지능인데요. 이루다는 아이돌 블랙핑크를 좋아하고 사람과 소통을 좋아하는 스무 살 여대생으로 설정됐습니다.

 

이루다가 다른 인공지능 챗봇과 달리 주목을 받았던 까닭은, ‘생동감 있는 대화가 가능하다는 점입니다. 기존 챗봇은 Q&A 형식으로 기존 명령을 수행하는데 끝났기 때문입니다. 이루다는 마치 사람과 대화하는 것만 같았고, 출시 후 많은 사람이 이루다를 이용하게 됩니다.

 

 

<인공지능 챗봇 '이루다' - 출처 : 스캐터랩 https://n.news.naver.com/mnews/article/037/0000028649>

 

하지만, 이루다는 수많은 문제점을 낳았습니다. 특히 욕설을 비롯해 인종·성차별주의, 극우적 발언을 쏟아낸 것입니다. 특히 일부 커뮤니티에서는 이루다를 성적 대상으로 취급, ‘노예 만드는 법을 공유하며 사회적 논란을 야기하기도 했습니다.

 

개인정보보호 측면에도 문제가 불거졌습니다. 이루다를 운영하는 스캐터랩이 개인정보를 무단으로 추출·도용했다는 의혹이 나오자 개인정보보호위원회는 법정대리인 동의 없이 만 14세 미만 아동의 개인정보를 수집한 행위, 개인정보 수집 시 정보 주체가 명확하게 인지할 수 있도록 공지·동의를 받지 않은 행위 등 총 8가지의 의혹을 조사했습니다.

 

결국 이루다는 출시 후 한 달 만에 서비스 중단과 데이터베이스 및 딥러닝 모델 폐기를 발표하며 사라지고 맙니다. 개인정보보호위원회는 이루다를 개발한 스캐터랩에 책임을 물어 과징금 5550만 원과 과태료 4780만 원을 합한 총 1330만 원을 부과하는 행정처분을 내렸죠.

 

 

<인공지능 챗봇 이루다의 혐오표현 사례 - 출처 : https://n.news.naver.com/mnews/article/037/0000028649>

 

이루다의 사례는 인공지능을 개발, 연구하는 모든 사람에게 윤리를 생각하게 했습니다. 물론 인공지능 관련 주무부처인 과학기술정보통신부는 이루다 출시 후 열흘 뒤인 20201223일에 인공지능(AI) 윤리기준을 마련했습니다.

 

인공지능(AI) 윤리기준은 윤리적 인공지능을 실현하기 위해 정부·공공기관, 기업, 이용자 등 모든 사회구성원이 인공지능 개발부터 활용까지 전 단계에서 함께 지켜야 할 주요 원칙과 핵심 요건을 제시하는 기준인데요. 인공지능 기술의 발전·확산과 함께 인공지능 기술의 윤리적 개발·활용 역시 세계 각국과 주요 국제기구의 관심 대상이기 때문입니다.

 

과학기술정보통신부는 다양한 전문가로부터 의견을 수렴했습니다. 이후 공청회 과정 등을 거쳐 인공지능(AI) 윤리기준을 제작했는데요. 인공지능(AI) 윤리기준은 사람 중심의 인공지능을 위한 최고 가치인 인간성(Humanity)’을 위한 3대 기본원칙과 10대 핵심 요건을 제시했습니다.

 

 ① 인간 존엄성 원칙
 - 인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과는 교환 불가능한 가치가 있다.

 - 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.

 - 인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.


 ② 사회의 공공선 원칙

 - 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다.

 - 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용되어야 한다.

 - 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있 어야 한다.


 ③ 기술의 합목적성 원칙

 - 인공지능 기술은 인류의 삶에 필요한 도구라는 목적과 의도에 부합되게 개발 및 활용되어야 하며 그 과정도 윤리적이어야 한다.

 - 인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다.


 출처 : 과학기술정보통신부 「인공지능(AI) 윤리기준」
           과학기술정보통신부 홈페이지 : https://www.msit.go.kr/bbs/view.do?mId=113&bbsSeqNo=94&nttSeqNo=3179742

 

과학기술정보통신부의 인공지능(AI) 윤리기준을 종합해보면, 결국, 인공지능은 사람을 위해 쓰여야 하며, 개발 과정도 윤리적이어야 한다는 것입니다. , 인간의 편리성과 효율을 위해 개발되는 만큼, 인간에게 해를 끼쳐서는 안 된다는 것인데요.

 

<인공지능 윤리기준 주요 키워드 - 출처 : http://www.it-b.co.kr/news/articleView.html?idxno=62195>

 

인공지능(AI) 윤리기준 발표 후, 과학기술정보통신부는 올해 2, 인공지능 윤리정책 포럼을 출범시키기도 했습니다. 인공지능 윤리정책 포럼은 인공지능의 윤리적 개발과 활용을 위한 논의를 촉진하기 위해서인데요. 포럼 출범식에서는 인공지능 윤리 자율점검표신뢰할 수 있는 인공지능 개발안내서를 공개했습니다. 민간이 인공지능 제품·서비스를 기획하고 개발하는 과정에서 참고할 수 있도록 하기 위해서였죠.

 

지난 8월에는 제3차 인공지능 윤리정책 포럼을 정보통신정책연구원과 한국정보통신기술협회와 함께 개최했습니다. 해당 포럼에서는 인공지능 스타트업이 인공지능 윤리를 어떻게 실천하고 있는지에 대한 사례를 엿볼 수 있었습니다.

 

특히, 인공지능 챗봇 이루다를 개발했던 스캐터랩 이종윤 대표가 스캐터랩 인공지능 챗봇 윤리점검표최종안을 발표하기도 했는데요. 대표적인 인공지능 윤리 문제로 거론됐던 이루다는 1년 동안 재개발 과정을 거쳤고, 올해 다시 이루다 2.0으로 돌아와 서비스를 진행하고 있습니다.

 

이루다 2.0은 그동안 붉어졌던 윤리 문제에 대해 혐오 대화를 시도하면 거부하거나 차단하고 있습니다. 동성애에 대해서는 당사자의 생각이 더 중요하다”, “누구나 나다운 것을 추구할 수 있다라고 말하거나 차별을 조장하는 말에는 누군가에겐 상처가 될 수 있다고 대답하는 셈이죠.

 

 

<돌아온 인공지능 챗봇 이루다 2.0 - 출처: https://n.news.naver.com/mnews/article/029/0002725123>

 

인공지능 챗봇 이루다는 우리 사회에게 인공지능을 활용하면서 발생할 수 있는 윤리 문제에 대해 깊게 생각할 수 있는 계기를 마련했습니다. 앞으로도 인공지능은 더 활성화되고, 우리 사회에서 불편한 부분을 해결하게 됩니다. 그럴수록, ‘윤리는 중요합니다. 과학기술정보통신부의 인공지능(AI) 윤리기준이 인간성(Humanity)’인 만큼, 인공지능을 개발하면서 윤리 문제를 고려한다면, 사람에게 더 좋은 인공지능이 개발되지 않을까 생각합니다.

 

 

[출처]

- "돌아온 AI '이루다2.0', 혐오·개인정보 논란 벗어날까", <비즈한국>, 2022.04.06
- "[씨줄날줄] AI 챗봇 이루다/이종락 논설위원", <서울신문>, 2021.01.12
- "[Digital+] 안녕, 인간? 나는 AI 챗봇이야…사회와 거리둔 나, AI와 친구가 됐다", <매일경제>, 2021.01.08
- 과학기술정보통신부, https://www.msit.go.kr/bbs/view.do?mId=113&bbsSeqNo=94&nttSeqNo=3179742

 

관련글 더보기

댓글 영역