cot1 [논문 리뷰] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 논문 요약Chain-of-Thought(CoT)는 언어 모델이 정답만 바로 예측하는 것이 아니라, 문제를 풀어가는 과정을 단계적으로 서술하도록 유도하는 방식이다. 마치 사람처럼 사고의 흐름을 언어로 풀어내는 방식이다. 기존의 언어 모델은 복잡한 문제에서도 중간 추론 없이 바로 답을 출력하는 경향이 있었고, 이로 인해 정확도가 낮아지는 문제가 있었다. CoT는 프롬프트에 추론 과정을 담은 예시를 몇 개 포함시켜, 모델이 생각 흐름을 따라가며 답을 내도록 만든다. 이를 통해 수학, 상식, 기호 조작 등 다양한 과제에서 성능이 크게 향상되었으며, 특히 큰 모델일수록 효과가 두드러진다. 논문 설명1. 논문 선정 배경스크래핑을 통해 수집한 데이터에서 삼중항(Triple) 관계를 추출해야 했지만, 구조화에 강점을.. 2025. 4. 15. 이전 1 다음