매일, AI 기사를 만나보세요

보다보면 나만의 아이디어가 떠오를지도?

"AI 에이전트는 융통성이 필요해"...MIT, LLM '예외적 사고' 강화법 공개

작성자
오더
작성일
2025-06-25 07:29
조회
169


생성형 AI가 “규칙대로만” 고집해 현실에서 납득 못할 결정을 내리는 한계가 드러났다.

MIT 슬론 연구진은 인간처럼 예외를 판단하려면 ① 윤리 프롬프트만으론 부족하고 ② 생각 과정을 풀어쓰는 CoT도 한계가 있으며 ③ 사람의 ‘판단 이유’를 담은 50개 안팎의 설명 데이터로 지도‧미세조정(SFT) 해야 효과가 크다고 발표했다.

실험 후 GPT-4o 미니는 ‘예산보다 1센트 비싼 밀가루’도 사야 한다는 답을 70% 넘게 선택, 인간(92%)에 가깝게 변했다.

AI 에이전트가 산업·의료 현장서 신뢰받으려면 “무엇을”뿐 아니라 “왜 그렇게 결정했는지” 학습시키는 설계가 필수라는 메시지다.

@@AI 에이전트 융통성, 어떻게 길러야 할까?@@

1. LLM이 ‘예외’를 무시해 생기는 실제 사례는 무엇일까?

 

→ 뉴스·논문에서 단일 규칙 때문에 오류가 난 사례를 3건 찾아 정리해 보세요.

2. 윤리 프롬프트·CoT·SFT 세 방법의 차이를 이해했나요?

 

→ 각각의 원리를 3줄로 요약하고, 장단점을 표로 비교해 보세요.

3. 고교 수준에서 ‘사람처럼 판단 이유를 설명한 데이터’ 50개를 모을 수 있을까?

 

→ 친구·가족에게 질문을 던져 답변·이유를 함께 기록하여 작은 SFT 세트를 만들어 보세요.

4. 작은 SFT 세트를 직접 시험해 보려면?

 

→ 무료 LLM(오픈소스) 모델에 LoRA 미세조정을 적용하고, 전‧후 응답을 비교해 보세요.


#인공지능 #인공지능윤리 #인공지능뉴스 #인공지능기사 #AI #AI기사 #인공지능세특 #세특 #입시 #AI세특 #GPT #GPT4 #ChatGPT #인공지능용어 #인공지능지식 #인공지능상식 #AI상식 #AI용어 #AI지식 #AI기술 #AI에이전트 #예외처리 #융통성강화 #SFT학습 #고교AI실험

전체 0