매일, AI 기사를 만나보세요
보다보면 나만의 아이디어가 떠오를지도?
왜 챗GPT는 태연하게 거짓말을 할까? “추측 부추기는 학습 평가방식이 원인”
농민신문 기사는 챗GPT를 개발한 오픈AI가 직접 발표한 연구 보고서를 인용해, AI가 사실이 아닌 내용을 그럴듯하게 지어내는 '환각(Hallucination)' 현상의 주요 원인을 설명합니다. 보고서에 따르면, AI가 환각을 일으키는 가장 큰 이유는 '추측을 부추기는 학습 및 평가 방식' 때문입니다.
마치 객관식 시험에서 모르면 찍는 것이 점수를 얻는 데 유리하듯, AI도 "모른다"고 답하는 것보다 그럴듯한 답을 추측해 내는 것이 더 높은 점수를 받도록 설계되어 있다는 것입니다. 또한, AI는 다음에 올 단어를 예측하는 방식으로 학습하기 때문에, 훈련 데이터에 자주 등장하지 않는 희귀한 정보는 정확한 답을 내지 못하고 추측에 의존하게 됩니다. 오픈AI는 환각 현상을 완전히 없애기는 불가능하며, 오답에 감점을 주고 "모른다"고 인정하면 부분 점수를 주는 방식으로 평가 기준을 바꿔야 한다고 제안했습니다.
◇◆ 생각해볼 만한 점 ◆◇
1. AI의 '환각' 현상은 왜 '거짓말'과 다른 개념일까요?
- 인간의 거짓말은 의도와 목적이 있지만, AI의 환각은 그럴듯한 정답을 만들어내도록 학습된 결과입니다. AI의 환각이 인간의 거짓말과는 어떻게 다른지, 그리고 그 차이가 기술의 신뢰성 문제에 어떤 영향을 미치는지 논의해 봅시다.
2. AI의 평가 방식을 바꾼다면 어떤 문제가 해결될까요?
- 기사는 "모른다"고 답했을 때 감점하지 않는 방식으로 AI 평가를 바꾸자고 제안합니다. 이런 변화가 AI의 환각을 줄이는 데 어떻게 도움이 될지, 그리고 이로 인해 발생할 수 있는 새로운 문제는 무엇일지 생각해 보세요.
◇◆ 탐구해볼 만한 과제 ◇◇
1. AI 환각 사례 찾아보기
- 실제로 AI 챗봇이 환각 현상을 보인 사례를 찾아보고, 어떤 유형의 질문에서 환각이 자주 발생하는지 분석해 보세요. 그 원인을 기사의 내용과 연결하여 설명해 봅시다.
2. 'AI 맹신 금지' 포스터 만들기
- 샘 알트만 오픈AI CEO가 경고한 것처럼, AI의 환각 문제를 일반인들에게 알리는 공익 포스터를 제작해 보세요. AI를 현명하게 사용하는 방법을 간결한 문구와 시각 자료로 표현해 봅시다.
3. 전문 분야에서의 AI 환각 문제 해결 방안
- 법률, 의료, 과학 등 정확성이 중요한 분야에서 AI의 환각은 치명적일 수 있습니다. 이러한 전문 분야에서 AI의 환각을 최소화하기 위한 구체적인 기술적, 제도적 해결 방안은 무엇일지 아이디어를 제안해 보세요.
#인공지능 #인공지능윤리 #인공지능뉴스 #인공지능기사 #AI #AI기사 #인공지능세특 #세특 #입시 #AI세특 #GPT #GPT4 #ChatGPT #인공지능용어 #인공지능지식 #인공지능상식 #AI상식 #AI용어 #AI지식 #AI기술 #AI환각 #챗GPT #AI윤리 #인공지능의한계 #기술의신뢰 #오픈AI #AI와팩트
