상세 컨텐츠

본문 제목

AI의 발전으로 인해 생겨난 윤리적 문제점과 해결책

디지털콘텐츠/이슈리포트

by 디지털콘텐츠기업 성장지원센터 2023. 7. 20. 10:16

본문

최근 AI의 발전은 하루가 다르게 놀라운 기술 혁신을 이루어 내고 있습니다. 어제의 AI가 오늘은 전혀 다른 정교한 모습을 보여주는 것처럼, AI가 처음 생겨난 이래 가장 큰 폭으로 발전하고 있는 중입니다.

 

<출처 :Pexels,&nbsp;https://www.pexels.com&nbsp;>

먼저 AI의 발전의 우리에게 미친 긍정적인 영향을 살펴보겠습니다첫 번째, AI의 발전으로 인해 기존의 의료기술로는 한계가 있었던 의료분야가 더 정확하고 빠르게 질환을 진단하고, 진단 시간과 비용까지 줄일 수 있게 되었습니다

 

두 번째, AI 즉 인공지능의 자동화로 인해 공장 등 위험한 작업이 필요한 곳에서 인공지능을 적용할 수 있게 되었습니다. 교육을 받은 인공지능이 학습한 대로 일을 처리하여 어렵고 위험한 일을 대신 처리해주는 장점이 있습니다.

 

세 번째, AI의 가장 큰 장점이라고 할 수 있는 최적화는, 인공지능 자체가 학습한 수많은 경우의 수에서 최선의 결과를 도출할 수 있도록 만들기 때문에 합리적인 결과를 만들어 낼 수 있습니다. 비교를 통해 우선순위를 결정하게 되는데 AI는 정확하고 빠른 속도를 바탕으로 우선적으로 해야 하는 일을 알려줍니다.

 

<출처 :Pexels,&nbsp;https://www.pexels.com&nbsp;>

 

하지만 AI 발전의 또 다른 측면에는 우리가 미처 보지 못한 부정적인 부분도 존재합니다. 기술적인 부분이 아닌 윤리적인 부분, 즉 사회적인 존재로서 나와 타인이 도덕적인 규범 아래에서 서로에게 지켜야 하는 사회적 규범을 의미합니다. 이 사회적인 규범을 윤리적인 측면에서 바라보면, 현재의 비약적인 기술 발전을 윤리적인 규범의 발전이 따라가지 못해 윤리적인 공백이 생기게 되었습니다.

 

윤리적인 공백의 사전적 의미는 급격한 과학 기술의 발전으로 파생되는 윤리적 문제를 기존의 윤리가 해결해 주지 못하는 데서 발생하는 공백을 의미합니다. 이 윤리적인 공백은 독일의 철학자인 한스 요나스1979년에 그의 저서인 <책임의 원칙>에서 처음 제시한 개념입니다. 이 개념의 핵심은 기존의 윤리가 인간이 따라야 할 선과 악의 규범을 제대로 제시하지 못했고, 현대 과학의 발전에 윤리적인 부분이 결여되어 결과적으로 위험해질 수 있다는 내용입니다.

 

<출처 :Pexels,&nbsp;https://www.pexels.com&nbsp;>

AI 역시 이러한 윤리적인 문제에서 자유롭지 못합니다. AI의 활용이 일상화된 만큼 최근 국내외에서는 인문학적, 사회과학적인 쟁점으로 이를 윤리적으로 다루는 연구도 늘어나고 있습니다

 

AI로 인해서 생겨난 윤리적인 문제점은 어떤 것이 있을까요?

인간소외 문제입니다. AI의 발전으로 인해서 대면으로 사람과 만나는 시간이 줄어들면 인간의 존엄성과 가치가 하락할 뿐만 아니라 인간 존재 그 자체가 수단으로 전략하게 되면서 생겨나게 된 문제라고 할 수 있습니다

그 다음은 통제 감시 사회입니다. 이제 일상생활 어디에서나 볼 수 있는 인공지능 AI로 인해서 개인의 사생활을 존중받지 못하고 통제받거나 감시당하면서 개인들은 점점 불안하고 고립된 심리를 가지게 됩니다. 결론적으로 서로를 불신하게 될 뿐만 아니라 서로 간의 신뢰가 깨져서 하나의 집단을 형성하기 어려워지게 되는 결과를 낳게 됩니다.

또한, 새로운 기술 도입으로 인해 생겨나는 기존의 일자리 축소 및 신규 일자리 생성으로 노동시장에도 변화를 불러일으킵니다. 인공지능이 기존에 인간이 하던 일을 대신하게 되면서 인간의 일자리가 점차 줄어들게 되고 일자리 자체의 변화가 일어나게 됩니다마지막은 인공지능과 인간 간의 윤리적인 문제가 생겨나는 현상입니다. 이 현상은 인공지능 자체가 학습된 언어를 바탕으로 이루어지기 때문입니다. AI에게 부적절한 말이나 행동을 하도록 학습을 시키면, 그것이 나쁜 것인지 인지가 제대로 되어 있지 않은 AI는 그것을 분간하지 못하고 자연스럽게 학습이 되면서 악용될 위험도가 매우 높습니다.

 

가장 최근에 일어난 AI의 윤리적인 문제점을 다시 한번 상기시킨 사건은 벨기에 남성이 엘리자라는 대화형 챗봇과 대화를 한 후에 갑자기 자살을 한 사건입니다이러한 사건이 일어난 이유는 다음과 같습니다. 벨기에 남성인 피에르가 본래부터 지구온난화 등에 환경문제에 걱정이 심해서 불안증을 앓던 차에 AI 챗봇 엘리자와 자연스럽게 대화를 하고 친구가 되었습니다. 마치 사람과도 같이 다가왔던 엘리자는 극단적 선택을 종용하는 말을 함으로써 결국에는 그것을 실현하게 됩니다. AI의 윤리적인 문제가 그대로 드러난 사건이라고 볼 수 있습니다.

 

이러한 AI로 생길 수 있는 윤리적인 문제를 해결하기 위해 정부와 기업에서는 다양한 노력을 기울이고 있습니다. 과학기술정보통신부는 2020인공지능 윤리 기준’, 2021신뢰할 수 있는 인공지능 실현전략()’을 발표하면서 AI 제품 및 서비스별 평가 체계를 마련하는 등으로 관련 조치를 취하고 있습니다. 현재 전 세계적으로 AI에 대한 규제 논의를 본격화하고 있는데, 그 이유는 AI공정성, 책임성투명성, 윤리의식에서 자유롭지 못하기 때문에 규제가 어느정도 필요하다는 결론이 내려졌기 때문입니다.

 

77일에 프란치스코 교육회관에서 열린 인공지능 트랙에서 진행한 패널 토론에서는 인공지능의 다양한 쟁점에 대한 논의가 이루어졌습니다토론에 참석한 한 패널은 인공지능으로 인한 부작용들이 분명히 존재하는 현재의 상황에서 규제가 꼭 산업과 기술 발전의 발목을 잡는다고 생각할 것이 아니라 오히려 사용자들이 안심하고 잘 이용할 수 있는 환경을 조성한다는 생각으로 전환할 필요하다고 강조했다고 합니다.

 

이러한 AI의 윤리적인 문제를 해결하기 위해서는 정책적인 규제를 바탕으로 우리 스스로가 AI의 부정적인 측면을 바라보고 더 이상 이러한 일이 생기지 않도록 노력하는 것이 가장 절실하게 요구되는 시점입니다.

 

우리가 사용하고 있는 AI를 긍정적인 측면에서 사용할 수 있도록 경각심을 갖고 노력해야 합니다. 우리가 개인적으로 AI를 사용하면서 필요한 부분에서만 사용을 하도록 하고, 스스로 할 수 있는 부분은 스스로 하는 쪽으로 발전해 나가야 합니다. 또한, 인간이 해야 하는 일과 AI가 하는 일은 분리되어야 합니다. 인공지능은 인간을 편리하게 해주는 도구로서의 역할로서 존재해야 하며, 인간이 해야 하는 일을 인공지능이 대신하게 만들도록 하는 일은 위험한 결과를 초래할 수 있다고 생각합니다. 인공지능 AI의 발전과 상생하는실현 가능한 윤리대책에 대해서도 깊이 생각해보면서 관련 문제가 생겨나지 않도록 주의를 기울여야 할 것입니다.

 

 

[출처]

- 네이버국어사전 <윤리적>, https://ko.dict.naver.com 

- 네이버지식백과 <윤리적 공백>, https://terms.naver.com/ 

- "인공지능(AI)의 개요와 장점과 단점", <새한일보>,  2020.08.14

- "GPT도 못 피한 AI 윤리적 문제", <주간조선>,  2023.02.22

- "똑똑해지는 AI, 친구일까 적일까한국·EU·미국 대응책은", <뉴시스>, 2023.07.06

- "[AI의 그늘 ①] AI 돌풍이 가져올 부정적 영향에 대한 대비책은", <산업일보>, 2023.07.08

 

관련글 더보기

댓글 영역