인공지능 모델이 예열학습을 통해 신뢰도 보정을 한 경우와 그렇지 않은 경우. KAIST 제공한국과학기술원(KAIST) 연구진이 AI가 스스로 모르는 상황을 인식하도록 하는 학습 방법을 개발해 과신을 줄이고 신뢰성을 높일 수 있는 기반을 마련했다.
KAIST는 뇌인지과학과 백세범 석좌교수 연구팀이 딥러닝에서 널리 사용돼 온 무작위 가중치 초기화(신경망 학습 시작 시 가중치를 확률 분포에 따라 무작위로 설정하는 방식)가 인공지능의 과신을 유발하는 근본적인 원인일 수 있음을 규명했다고 27일 밝혔다.
연구팀은 이를 해결하기 위해 실제 데이터를 학습하기 전, 무작위 노이즈(의미 없는 임의의 입력 데이터)로 신경망을 짧게 학습시키는 '예열' 전략을 제안했다.
연구팀은 AI의 과신 문제가 학습 이후만이 아니라 학습의 출발점인 초기화 단계에서부터 이미 나타난다는 점에 주목했다.
실제로 무작위로 초기화된 신경망에 임의의 데이터를 입력한 결과, 아직 아무것도 배우지 않은 상태임에도 불구하고 높은 확신도를 보이는 현상이 확인됐다. 이런 특성은 생성형 AI에서 사실과 다른 내용을 만들어내는 환각 문제로 이어질 수 있다.
연구팀은 해결의 실마리를 생물학적 두뇌에서 찾았다. 인간의 두뇌는 태어나기 전부터 외부 자극 없이도 '자발적 신경 활동(외부 입력 없이 스스로 발생하는 뇌 신호)'을 통해 신경회로를 형성한다.
연구팀은 실제 학습에 앞서 무작위 노이즈 입력으로 짧은 사전 학습을 수행하는'예열 단계'를 도입했다. 예열 과정을 거친 AI 모델은 초기 확신도가 우연 수준에 가까운 낮은 값으로 정렬되며, 기존 초기화에서 나타나던 과신 편향이 크게 완화됐다.
특히 처음 보는 데이터에 대한 반응에서도 차이가 나타났다. 기존 모델은 학습하지 않은 데이터에도 높은 확신을 보이며 잘못된 답을 제시하는 경향이 있었지만, 예열 학습을 적용한 모델은 확신도를 낮춰 '모른다'고 판단하는 능력이 뚜렷하게 향상됐다.
이번 연구는 AI가 단순히 정답을 맞히는 수준을 넘어, '무엇을 아는가'와 '무엇을 모르는가'를 구분하는 능력, 메타 인지(자신의 인지 상태를 스스로 인식하는 능력)를 갖출 수 있는 가능성을 제시했다.
백세범 석좌교수는 "이번 연구는 두뇌 발달 과정을 모사함으로써 AI가 인간과 좀 더 유사하게 자신의 지식 상태를 인식할 수 있음을 보여준 사례"라며 "정확도를 높이는 것을 넘어 인공지능이 스스로의 불확실성을 판단하는 원리를 제시했다는 데 의의가 있다"고 말했다.