2022년 11월 30일, 오픈에이아이(Open AI)가 개발한 대화 전문 인공지능 챗봇 ChatGPT는 GPT-3.5와 GPT-4를 기반으로 하는 대화형 인공지능 서비스인데요. 유료와 무료 구독제 중 하나를 선택할 수 있습니다. 이후 채팅하듯이 챗봇에 질문을 입력하면, 챗봇이 답변해줍니다. 이러한 과정을 ‘프롬프트(Prompt)’라고 부르는데요. 이루다 등 기존에 출시됐던 챗봇과 달리 ChatGPT는 현재도 널리 사용되고 있습니다.
다만, ChatGPT는 처음에 웃지 못할 해프닝도 있었습니다. ‘세종대왕 맥북 던짐 사건’처럼, 정확한 정보를 제공하지 않거나, 차별적인 발언을 하는 경우도 있었는데요. 현재는 이러한 점을 개선해 초기의 ChatGPT보다 상당히 높은 정확성을 가지고 있습니다. 그렇다면, ChatGPT를 대학원생은 어떻게 생각하고 있을까요? 인공지능 대학원생은 비대면으로, 미디어커뮤니케이션학과 대학원생을 대면으로 만나 각각 이야기를 들어보았습니다. 먼저, 인공지능 대학원생의 이야기입니다.
Q. ChatGPT, 어떻게 보고 있나요?
A. ChatGPT는 기존의 대화형 인공지능 즉, 챗봇에 비해 고도로 발전된 인공지능입니다. 기존 챗봇은 사람이 하는 말을 제대로 알아듣지 못하는 경우가 많았는데요. 사람과 대화를 나누기 위해서는 단순 데이터뿐만 아니라 인간의 언어를 이해해야 했습니다. 즉, 말은 단순히 데이터를 학습시킨다고 해서 인간처럼 대화할 수 있지는 못합니다.
그래서 챗봇들이 질문에 대해 정확히 답변하지 못하거나 동문서답 하는 경우를 볼 수 있었는데요. ChatGPT의 장점은 ‘문맥’입니다. 먼저, 언어 부분에서 상당한 양의 데이터를 학습시킵니다. 이후 ‘문맥’을 파악합니다. 문맥을 파악할 수 있으니 이전 대화를 기억할 수 있고, 100% 사람처럼 말하지는 못하지만, 80% 수준으로 사람처럼 대화할 수 있다고 생각합니다.
Q. 그래서 다양한 창작도 가능한 걸까요?
A. 네, 그렇습니다. 뉴스를 살펴보면, ChatGPT가 자기소개서를 대신 작성해주고, 소설과 수필, 시 등 사람의 창작 영역까지 수행할 수 있다는 소식을 많이 들었을 텐데요. 일부 공모전은 ChatGPT로 작성한 작품을 탈락시키기도 합니다. 창작 영역까지 사람과 비슷한 수준을 보여주고, 전문 데이터 학습을 통해 코딩까지 할 수 있게 됐습니다.
Q. 다만, 한계점도 보인다는데요?
A. 마지막으로 말하자면, 물론 한계점도 보입니다. 챗봇의 본질적인 한계인 정치적 편향성과 가치판단 문제에서 자유롭지 못합니다. ChatGPT는 결국 인간이 생산한 데이터를 학습하는 존재입니다. 데이터 자체가 정치적 편향성을 띈다면, ChatGPT도 정치적 편향성을 띌 수밖에 없습니다.
이제 미디어커뮤니케이션학과 대학원생을 만났습니다. 인공지능 대학원생이 기술에 초점을 두었다면, 미디어커뮤니케이션학과 대학원생은 ChatGPT의 문제점과 한계, 극복방안 등에 대해 의견을 전했습니다.
Q. ChatGPT는 유용하지만, 문제점도 있었습니다.
A. 대표적인 문제점이 두 가지 있습니다. 정보 정확성 문제입니다. ChatGPT는 사람과 비슷한 답변을 해줍니다. 하지만, 모든 문제에 정답을 답하지는 않습니다. 왜냐하면, 챗봇은 학습한 데이터를 바탕으로 답변하기 때문입니다. 그래서 ‘잘 모른다’라고 말하지만, 일부의 경우 자신있게 오답을 내놓습니다. 정답을 모르는 사람 입장에서 ChatGPT의 답이 정답이라고 느낍니다. 이를 인공지능의 ‘환각’, 또는 ‘할루시네이션(Hallucination)’이라고 말합니다.
대표적인 사례가 인터넷에서 ‘밈’화 됐던 세종대왕 맥북 던짐 사건 논란입니다. 이 논란은 ChatGPT 세종대왕이 맥북을 던졌다는 내용이 조선왕조실록에 실려 있다고 답변한 것입니다. 자신 있게 대답하였기 때문에 마치 사실로 보이죠. 그래서 ChatGPT에서 답변을 받았더라도 이를 맹신하지 않고 한 번 더 확인하는 ‘정보 리터러시’ 능력을 길러야 합니다.
Q. 윤리적인 부분은 어떤가요?
A. 인공지능에서 가장 중요하게 다뤄져야 하는 부분이 ‘윤리적 책임’입니다. 다양한 차별 논란으로 문제 됐던 챗봇들의 사례처럼, ChatGPT도 윤리적인 문제를 떠안고 있습니다. 먼저, 부정행위입니다. ChatGPT로 부정행위를 하는 셈이죠. 과제를 모두 ChatGPT에 맡긴다거나, ChatGPT를 활용해 계산이나 코딩을 하기도 합니다.
다음으로는 가짜뉴스의 대량 생산과 범죄 악용입니다. 세종대왕 맥북 던짐 사건 논란을 웃으며 지나갔지만, 생각해보면 ChatGPT가 가짜뉴스를 생산할 수도 있습니다. 데이터만 학습하면 돼 비용도 저렴하고, 널리 확산시킬 수 있죠. 이렇게 생산된 가짜뉴스를 바탕으로 범죄에 활용할 수도 있습니다.
Q. 올바르게 ChatGPT를 활용하려면?
A. ChatGPT의 개발자, 사용자의 자세가 중요합니다. ChatGPT에 데이터를 학습시키는 개발자는 오염된 데이터인지 한 번 더 확인하고, 최대한 중립적인 데이터를 학습시켜야 합니다. ChatGPT는 학습된 데이터를 바탕으로 답변하기 때문입니다.
사용자는 ChatGPT를 그대로 받아들이기보다는, 한 번 더 생각하는 자세가 중요합니다. 과연 이 정보가 100% 신뢰할 수 있는 정보인지 생각하고, 이 정보를 활용할 때 부정행위 등에 활용하지 않는다고 다짐해야 합니다. 즉, 위에서 말했던 ‘정보 리터러시’와 ‘윤리적 책임’을 져야 하죠. 개발자와 사용자 모두 ‘윤리’를 생각한다면, ChatGPT는 사람에게 좋은 도구로 활용될 것이라 믿어 의심치 않습니다.
ChatGPT를 활용하고, 이와 관련된 대학원생들을 만나 인터뷰를 진행했습니다. 결과, 이들은 모두 ChatGPT의 활용에 대해 긍정적으로 평가하면서도 ‘윤리적’인 부분에서는 우려를 표했는데요. 개발자와 사용자 모두 윤리를 생각하면서 활용한다면, 좋은 도구가 되지 않을까 생각합니다.
[출처]
- OpenAI홈페이지, https://chat.openai.com/
엔터테인먼트와 ICT의 만남 (0) | 2023.09.27 |
---|---|
새로운 디지털 질서의 시작, 디지털 공론장과 디지털 콘텐츠 (2) | 2023.09.27 |
앞으로 개발될 일상 속 생성형 AI (0) | 2023.09.26 |
관광과 기술이 만나다, 스마트 관광 (0) | 2023.09.26 |
일상생활을 편리하게 해주는 스마트 기기 A to Z (0) | 2023.09.26 |
댓글 영역