https://arxiv.org/pdf/2402.08939


Abstarct:

  • LLM 이 뛰어난 추론 능력을 가지고 있어도 전제(근거가 되는 정보)의 순서에 예상 외로 취약하다는 사실을 발견
    • 전제라는 건 문제를 해결할 떄 사용되는 정보, 명제, 조건 등을 말함.
    • 논리 추론 문제라면 A -> B, B -> C 와 같은게 전제가 될거임.
    • 이런 전제의 순서를 다르게 준다는 건 추론 과정에서 추론 순서를 뒤바뀌게 준다는 걸 말함.
    • 근데 이런 전제의 순서는 인간에게는 큰 영향이 없음. LLM 만 이런 순서가 중요하다고 함.
    • 인간에게 전제의 순서가 중요하지 않는 케이스:
      • a) If A then B
      • b) If B then C
      • c) A is True
      • 이렇게 명제들이 주어진다고 하면 c -> a -> b 를 통해서 C 는 참이다라는 걸 인간은 쉽게 할 수 있음. 인간은 뇌에서 전제의 순서를 마구 뒤바꿔 볼 수 있으니
      • 하지만 LLM 은 추론 순서대로 줘야한다고 함.
  • LLM이 논리적 추론 과정을 그대로 반영한 순서로 전제를 제시받을 때 가장 높은 정확도를 보인다고 함.
  • 하지만 이 순서가 뒤바뀌거나 무작위로 섞이면, 정확도가 최대 30% 이상 낮아질 수 있다고 함.

 

Introduction:

  • LLM 은 인간과 유사한 인지적 편향을 보인다고 함:
    • Reversal Curse (거꾸로 추론에 약함): “A는 B이다”라고 학습한 모델이 “B는 A이다”를 잘 추론하지 못함(Berglund et al., 2023).
    • Distractibility (무관한 정보에 쉽게 휘둘림): 문제 설명에 불필요한 문맥이 들어가면 성능이 급격히 떨어짐(Jones and Steinhardt, 2022; Shi et al., 2023).
  • 인간에겐 제공된 전제 순서가 논리적으로는 무의미함. 머리속에서 조합해보면 되니까. 하지만 LLM 에게는 이 순서가 중요하다고 한다.
  • 원본 증명(ground-truth proof) 순서와 동일하게 전제를 배치해 줄 때 가장 높은 성능을 보임
  • 전제 순서를 바꾸면 정확도가 최대 30% 이상 감소.
  • 그리고 무관한 전제(irrelevant premise)를 추가할 경우, 순서 뒤바뀜으로 인한 영향이 더욱 커짐.
  • 이러한 이유는 LLM 의 매커니즘으로 인한 결과로 판단됨. Autoregressive 구조상 왼쪽에서 오른쪽으로 단어를 예측하기 때문에 한방향으로만 읽을 수 있다는 한계점이 있음. 그래서 순서를 올바르게 주는게 중요함.

'Generative AI > Agent' 카테고리의 다른 글

Cognitive Architectures for Language Agents  (0) 2024.12.23
LLM Agent Course - (2) LLM agents  (0) 2024.12.22
LLM Agent Course - (1) Reasoning  (0) 2024.11.18
Multi AI Agent Systems with crewAI  (0) 2024.06.25
AI Agents in LangGraph  (0) 2024.06.18

+ Recent posts