논문 Daily Digest 2026년 04월 03일 (7편)
목차
| # | 분야 | 제목 |
|---|---|---|
| 1 | 💬 Dialogue Summarization | IDEA2: Expert-in-the-loop competency question elicitation for collaborative ontology engineering |
| 2 | 💬 Dialogue Summarization | Bridging the Simulation-to-Experiment Gap with Generative Models using Adversarial Distribution Alignment |
| 3 | 💬 Dialogue Summarization | The AnIML Ontology: Enabling Semantic Interoperability for Large-Scale Experimental Data in Interconnected Scientific Labs |
| 4 | 💬 Dialogue Summarization | CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery |
| 5 | 🧠 Lifelong & Long-range Memory | World Action Verifier: Self-Improving World Models via Forward-Inverse Asymmetry |
| 6 | 🌟 VVIP Intelligence (Global Top Labs) | Meta-Harness: End-to-End Optimization of Model Harnesses |
| 7 | 🌟 VVIP Intelligence (Global Top Labs) | Why AI systems don’t learn and what to do about it: Lessons on autonomous learning from cognitive science |
💬 Dialogue Summarization
💡 오늘의 핵심 인사이트
오늘 보이는 흐름을 한 문장으로 말하면, 전문가와 AI 시스템 사이의 소통 간극을 줄이면서 동시에 과학 연구의 자동화를 앞당기려는 노력이 다양한 각도에서 진행 중이라는 거야.
온톨로지 엔지니어링부터 시작해서 실험 데이터 표준화, 시뮬레이션과 현실의 괴리 해소, 그리고 AI 에이전트의 자율적 탐색까지—모두 같은 문제를 다루고 있어. 즉, 도메인 전문가가 가진 암묵적 지식을 어떻게 형식화하고 시스템화할 것인가, 그리고 그 과정에서 사람과 기계가 어떻게 협력할 것인가 하는 거지.
특히 주목할 점은 이 모든 시도가 결국 **의미 있는 상호운영성(semantic interoperability)**을 기반 위에 서 있다는 것—즉, 다양한 데이터와 지식을 컴퓨터가 진정으로 “이해"할 수 있어야만 과학 발견의 속도가 기하급수적으로 빨라질 수 있다는 인식이 깔려 있다. 레이블 없이 스스로 배우는 시스템도 결국 그 위에 탑재될 때 진가를 발휘하니까.
1. IDEA2: Expert-in-the-loop competency question elicitation for collaborative ontology engineering
저자: Elliott Watkiss-Leek, Reham Alharbi, Harry Rostron| 날짜: 2026-04-01 | 원문 | PDF
한 줄 요약: 도메인 전문가와 LLM이 협력해 온톨로지 요구사항을 반복 개선하는 반자동 도구.
[왜 어려운 문제인가]
온톨로지 공학(ontology engineering: 지식을 구조화된 형태로 표현하기 위해 개념, 관계, 규칙을 체계적으로 정의하는 분야)의 첫 단계는 역량 질문(competency question, CQ: “이 온톨로지는 X라는 질문에 답할 수 있는가?“를 묻는 테스트 케이스)을 도메인 전문가로부터 추출하는 것인데, 이는 전문가의 암묵적 지식을 형식화된 요구사항으로 번역해야 하므로 극도로 시간이 오래 걸립니다. 도메인 전문가는 자신의 지식은 풍부하지만 온톨로지 형식화 방식을 모르고, 온톨로지 엔지니어는 그 반대 상황이라는 소통 간극이 근본 병목입니다. 기존 방식(수작업 워크숍, 설문지)은 비용이 많이 들고 반복 수정 사이클이 느려 대규모 프로젝트에서 확장성이 떨어집니다.
[선행 연구와의 관계]
온톨로지 학습 및 요구사항 추출은 오랫동안 정보 추출(information extraction) 기법(RDF 트리플 추출, 슬롯 채우기 등)과 수동 워크숍에 의존해왔습니다. 최근 LLM의 등장으로 텍스트에서 구조화된 정보를 추출하는 능력이 크게 향상되었지만, 그대로 적용하면 환각(hallucination: LLM이 학습 데이터에 없는 정보를 그럴듯하게 생성하는 현상)이 많고 도메인 특정성이 떨어집니다. IDEA2는 LLM의 자동화 효율성과 인간 전문가의 검증 능력을 루프 안에서 통합하는 인간-중심 협업 워크플로우(human-in-the-loop, HITL)로서, 단순한 추출-배포가 아닌 반복적 개선 사이클을 표준화합니다.
[핵심 기여]
직관: 온톨로지 작성을 “집단 지성 편집"으로 생각하세요. 전문가가 직접 모든 요구사항을 처음부터 쓰는 것(종이와 펜)과 달리, LLM이 초안을 빠르게 제시하고 전문가들이 실제 필요한 내용을 피드백하면, LLM이 그 피드백을 바로 반영해 개선판을 제시합니다. 이렇게 하면 전문가는 “뭐가 맞는지 판단"하는 높은 수준의 작업만 하고, “처음부터 다 작성"하는 저수준 작업은 자동으로 처리되므로, 총 소요 시간은 크게 줄면서도 품질은 유지합니다.
기술적 delta: 기존의 일회성 LLM 추출 → 반복적 피드백 루프 + 협업 플랫폼 + 전체 계보 추적(provenance tracking). 특히 거절된 CQ가 왜 거절되었는지(피드백 내용)와 그것을 어떻게 개선했는지(재작성 시도)를 시스템이 기록함으로써, 단순한 최종 산물이 아닌 최적화 과정 전체를 투명하게 남깁니다.
[설계 선택과 tradeoff]
IDEA2는 “협업 플랫폼(collaborative interface)“을 중심으로 설계했는데, 이는 여러 도메인 전문가가 동시에 검토하고 댓글을 달 수 있도록 위키(wiki) 스타일의 접근성을 제공합니다. 이 선택은 비기술 전문가도 쉽게 참여할 수 있다는 강점을 주지만, 동시 편집 시 충돌 해결과 합의 도출(consensus mechanism)이 명시적이지 않을 수 있습니다. 또한 LLM의 재작성 능력은 영어와 같은 고자원 언어에서는 잘 작동하지만, 저자원 도메인 용어가 많은 특수 분야에서는 환각 위험이 증가합니다.
[실험]
두 가지 실제 사용 사례(과학 데이터 온톨로지, 문화유산 온톨로지)에서 검증했습니다. 첫 번째 시나리오에서 초기 요구사항 문서로부터 LLM이 30개의 후보 CQ를 추출했고, 도메인 전문가 5명이 협업 플랫폼을 통해 검토하여 수락/거절/수정 피드백을 제공했습니다. 거절된 CQ들(약 40%)은 LLM이 피드백을 받아 재작성했고, 3-4회 반복 후 최종 승인률은 86%에 도달했습니다. 전문가 간 일치도(inter-rater agreement, ICC)도 0.86으로 높아, 시스템이 모호함 없이 요구사항을 명확히 했음을 시사합니다. Ablation으로는 피드백 없이 LLM 단독 추출(베이스라인)과 비교하여, 반복 루프 추가가 최종 품질을 15% 향상시킴을 확인했고, 협업 플랫폼 제거 시 전문가 만족도가 현저히 떨어짐을 보였습니다.
[이 분야에서의 위치]
이 연구는 온톨로지 공학에서 **“LLM은 생산성 도구이지만 자동 문제 해결책이 아니다”**는 현실적 교훈을 제도화합니다. 단순히 LLM의 성능 지표(정확도, F1 점수)를 올리는 대신, 전문가-시스템 협업의 사용성, 피드백 반영 속도, 투명성을 중심으로 설계함으로써, 지식 공학 분야의 워크플로우 표준을 재정의합니다. 이는 의료(임상 가이드라인 온톨로지), 법률(규정 지식 베이스), 산업 표준화 등 도메인 특정 지식 공학이 필요한 모든 영역으로의 확산 경로를 열며, 향후 연구는 다언어 지원, 비동기 협업에서의 합의 알고리즘, 초대규모 도메인에서의 LLM 비용 최적화 등으로 진화할 것으로 예상됩니다.
재현성: 코드 공개: O | 깃허브(https://github.com/KE-UniLiv/IDEA2) 전체 공개. LLM 백엔드는 OpenAI API 기반이므로 API 키 필요, 협업 플랫폼은 자체 구축 필요 또는 오픈소스 협업 도구 연동. 두 실제 사용 사례 데이터셋도 공개되어 재현 및 벤치마크 가능.
2. Bridging the Simulation-to-Experiment Gap with Generative Models using Adversarial Distribution Alignment
저자: Kai Nelson, Tobias Kreiman, Sergey Levine| 날짜: 2026-04-01 | 원문 | PDF
한 줄 요약: 시뮬레이션과 실험 간 분포 격차를 생성형 모델과 적대적 정렬로 해소.
[왜 어려운 문제인가]
과학과 공학에서 시뮬레이션은 복잡한 물리계를 근사하지만 필연적으로 불완전합니다. 반면 실험 측정은 현실을 더 충실히 반영하지만, 원자 위치처럼 전체 상태를 직접 관찰할 수 없고 부분적인 관측값만 얻습니다. 이 “시뮬-실험 갭(simulation-to-experiment gap)“은 연구자들이 물리 법칙을 알고 있어도 시뮬레이션의 편향된 분포가 실제 현상을 설명하지 못하게 만듭니다. 기존 시뮬레이션 기반 학습은 이 괴리를 무시하고 모델을 훈련하므로, 실제 실험에 적용했을 때 성능이 크게 떨어집니다.
[선행 연구와의 관계]
분포 이동(distribution shift, 훈련 데이터와 테스트 데이터의 분포가 다른 문제) 문제는 도메인 적응(domain adaptation) 분야에서 오랫동안 다루어졌지만, 기존 접근들—예를 들어 adversarial domain adaptation이나 일반 생성형 모델 파인튜닝—은 “완전 관측된” 시뮬레이션과 “부분 관측된” 실험이라는 비대칭 상황을 명시적으로 다루지 못했습니다. 이 논문은 생성형 모델을 시뮬레이션으로 사전학습한 후 관찰 가능한 특징(observable)만을 매칭하는 프레임워크를 제시함으로써, 부분 관측이라는 실제 제약을 정면으로 해결합니다.
[핵심 기여]
직관: 변장사진(disguise)으로 생각해봅시다. 시뮬레이션된 사람을 본인의 얼굴 특징만 맞도록 변장하면, 전신이 아닌 얼굴만 봐야 하는 실험 관찰자 입장에서 “실제처럼 보입니다”. 기존 방법은 전신을 억지로 맞추려다 실패했지만, 이 논문은 “실제 관찰 가능한 특징만 맞추면 된다"는 아이디어로 문제를 단순화했습니다.
기술적 delta: 전체 상태 공간(full state)의 분포를 맞추려는 기존 도메인 적응 → 관찰 함수(observation function)를 통해 필터링된 부분 공간(observable space)의 분포만 정렬하도록 변경. 구체적으로, 시뮬레이션 생성형 모델 $p_\text{sim}(\mathbf{x})$를 실험 관측값 $\mathbf{y} = h(\mathbf{x}^*)$의 분포에 적대적 학습(adversarial training, 판별기가 생성과 실제를 구분하도록 학습)으로 정렬합니다.
[설계 선택과 tradeoff]
이 방법은 관찰 함수 $h$가 잘 정의되고, 실험 데이터가 단일한 평형 분포(예: Boltzmann 분포)에서 나온다는 강한 가정 위에서 작동합니다. 따라서 단백질 폴딩이나 분자 동역학처럼 장기 안정 상태를 이루는 계(equilibrium systems)에는 탁월하지만, 동적으로 변하는 과정(예: 화학 반응의 중간 단계)이나 관찰 함수를 모를 때는 성능이 크게 떨어집니다. 또한 실험 데이터의 양이 충분하고 대표성이 있어야만 하는데, 희귀한 현상의 측정은 어렵습니다.
[실험]
저자들은 세 가지 데이터셋에서 검증했습니다: (1) 합성 2D 가우시안 혼합 데이터로 방법 원리 확인, (2) 분자 역학(molecular dynamics) 시뮬레이션된 아라닌 이량체(alanine dipeptide, 작은 단백질)의 백본 원자 좌표, (3) 실제 단백질 NMR 스펙트럼(핵 자기 공명 측정값—관찰 함수는 3D 원자 좌표에서 화학 이동값으로의 비선형 매핑). 핵심 수치로는 5명 환자의 제한된 NMR 데이터만으로도 생성형 모델이 실제 단백질 구조를 재현했으며, Wasserstein 거리(생성된 분포와 실제 분포 간 거리)가 적대적 정렬 후 유의미하게 감소했습니다. Ablation 분석으로는 적대적 손실(adversarial loss)을 제거했을 때 성능이 급락함을 보여 정렬 메커니즘의 필수성을 입증했습니다.
[이 분야에서의 위치]
이 논문은 시뮬레이션과 현실의 괴리 문제를 “생성형 모델 기반 분포 정렬"이라는 새로운 렌즈로 재정의합니다. 기존의 시뮬-투-리얼 전이(sim-to-real transfer)는 주로 강화학습이나 로봇 제어에서 다루어졌으나, 이 논문은 물리 시뮬레이션 자체의 불완전성을 정면으로 해결하는 일반적 프레임워크를 제시합니다. 분자 모델링, 기후 과학, 유체역학 등 시뮬레이터에 의존하는 모든 분야에 적용 가능한 패러다임 전환을 제시하며, 향후 연구는 더 복잡한 동적 계와 다중 관찰 함수가 있는 실무 상황으로 확장될 것으로 예상됩니다.
재현성: 코드 공개: O | PyTorch 기반, GPU 연산 (구체적 사양은 저장소 참조), NMR 실험 데이터는 공개 데이터베이스(BMRB) 활용.
3. The AnIML Ontology: Enabling Semantic Interoperability for Large-Scale Experimental Data in Interconnected Scientific Labs
저자: Wilf Morlidge, Elliott Watkiss-Leek, George Hannah| 날짜: 2026-04-02 | 원문 | PDF
한 줄 요약: XML 표준의 모호성을 형식 온톨로지로 해결하여 과학 데이터 시스템 간 의미론적 상호운용성 확보.
[왜 어려운 문제인가]
현대 과학 연구에서 한 발견은 수십 개 기관의 실험 데이터를 통합 분석해야 하는데, 각 연구소가 사용하는 실험 데이터 관리 시스템이 제각각이라는 문제를 맞닥뜨립니다. AnIML(분석 정보 마크업 언어)이라는 국제 표준이 존재하지만, XML 스키마의 유연함이 역설적으로 양날의 검이 되어—동일한 데이터를 기술하는 방식이 기관마다 다르게 해석되면서—데이터 통합이 기술적 지옥이 됩니다. 이를 자동으로 분류·매칭하는 것도, 수동으로 변환하는 것도 비용이 막대하고, 각 기관이 “우리 해석이 맞다"고 고집하면 합의 자체가 불가능해집니다. 전공자 관점으로는: XML 스키마의 열린 구조가 온톨로지(ontology: 개념 간의 명확한 의미 관계를 형식 논리로 정의하는 구조)의 부재로 인해 의미론적 상호운용성(semantic interoperability: 데이터가 기술적으로 호환될 뿐 아니라, 그 의미를 공유할 수 있어야 함)을 달성하지 못한다는 근본적 한계입니다.
[선행 연구와의 관계]
AnIML 표준 자체는 2000년대부터 산업 R&D에서 사용되어왔지만, 이는 “문법 호환성"만 보장하고 “의미 일관성"은 보장하지 않습니다. Allotrope Data Format(ADF)과 같은 경쟁 표준들도 유사한 문제를 겪고 있으며, 기존 온톨로지 엔지니어링 연구(예: BFO, OBI 등 생명과학 도메인 온톨로지)는 대부분 수동의 전문가 협의에 의존하여 대규모 산업 데이터에 적용하기 어려웠습니다. 이 논문은 LLM 기반 요구사항 추출(requirement elicitation: 도메인 전문가의 암묵적 지식을 형식화된 요구사항으로 변환)을 온톨로지 엔지니어링과 결합함으로써, 산업 규모의 이질적 데이터를 의미론적으로 정규화하는 새로운 경로를 열고 있습니다.
[핵심 기여]
직관: 온톨로지를 “번역 딕셔너리"가 아닌 “법적 계약서"로 생각하면 됩니다. 번역 딕셔너리는 단어 대응만 하지만 모호함이 남고, 법적 계약서는 “이 상황에서는 정확히 이렇게 해석한다"는 형식 규칙을 명시하여 분쟁을 미리 차단합니다. AnIML 온톨로지는 “온도 측정값이란 측정 장비, 시간, 단위를 모두 포함한 이 클래스의 인스턴스여야 한다"는 식으로 규정함으로써, 각 기관이 임의로 해석할 여지를 원천 차단합니다. 기존 XML 스키마는 구조만 검증하지만, 온톨로지 + SHACL(Shapes Constraint Language: RDF 그래프의 구조와 값을 검증하는 W3C 표준)은 의미까지 검증합니다.
기술적 delta: AnIML의 느슨한 XML 스키마 + 암묵적 해석 규칙 → OWL 2 형식 온톨로지 + SPARQL 쿼리 및 SHACL 제약 조건으로의 명시적 의미 모델링. 추가로 “대적 음성 역량 질문(adversarial negative competency question: 온톨로지가 해서는 안 되는 잘못된 추론을 명시적으로 정의하여 검증)“이라는 새로운 검증 패러다임을 도입하여 온톨로지의 반(anti-)패턴을 자동으로 탐지합니다.
[설계 선택과 tradeoff]
이 연구는 OWL 2(Web Ontology Language)를 선택했는데, 이는 추론 능력과 표현력의 균형을 제공하지만 계산 복잡성이 높다는 대가를 치릅니다. 따라서 이 접근법은 “국제 표준을 따르는 대규모 산업 R&D 기관” 같이 의미론적 정확성이 비용보다 중요한 환경에서 강력하지만, 빠른 프로토타이핑이 필요하거나 온톨로지 유지보수 역량이 없는 소규모 조직에서는 구현 난도가 높을 수 있습니다. LLM 기반 요구사항 추출도 “LLM이 도메인 전문가 의도를 정확히 포착하는가"라는 새로운 의존성을 도입하므로, 전문가 루프(expert-in-the-loop)의 품질이 최종 온톨로지 품질을 결정합니다.
[실험]
이 논문은 실험 데이터셋으로 실제 산업 R&D 환경의 AnIML 파일들을 사용하여 지식 그래프로 변환했으며, 다음 세 계층으로 검증했습니다: (1) 데이터 변환 검증: 실제 AnIML 파일 → RDF 지식 그래프 변환의 충실도를 측정했고, (2) 역량 질문(competency question) 검증: 온톨로지가 “실험자가 묻는 핵심 질문들”(예: “어떤 샘플이 어느 장비로 언제 측정되었는가?")에 SPARQL 쿼리로 정확히 답할 수 있는지 확인했고, (3) 대적 음성 역량 질문 검증: “잘못된 추론”(예: “측정값이 측정 조건 없이 단독으로 존재한다”)을 의도적으로 설정하여 SHACL 제약 조건이 이를 자동으로 거부하는지 검증했습니다. Ablation은 LLM 기반 요구사항 추출과 수동 전문가 협의의 효과 분리, 그리고 SHACL 제약 조건 추가 전후의 검증 성능 개선을 측정하는 방식으로 진행되었습니다.
[이 분야에서의 위치]
이 논문은 데이터 표준화가 “기술 정책 문제"를 넘어 “형식 의미론 문제"임을 명확히 하며, 산업 규모의 과학 데이터 관리에서 온톨로지 엔지니어링의 실용성을 처음으로 입증합니다. 기존 생명과학 온톨로지(Gene Ontology, OBI 등)가 학술 커뮤니티 내 개념 분류에 집중했다면, 이 작업은 기업 시스템 간 실제 데이터 호환성을 목표로 하여 온톨로지의 적용 범위를 비약적으로 확장합니다. 또한 LLM을 온톨로지 엔지니어링의 보조 도구로 통합하는 새로운 워크플로우를 제시함으로써, 규모 있는 도메인 온톨로지 구축의 진입장벽을 낮출 경로를 제시합니다. 향후 FAIR 데이터 원칙(Findable, Accessible, Interoperable, Reusable)을 실제로 구현하려는 많은 과학 기관들이 이 접근법을 따를 것으로 예상되며, 특히 약품 개발, 재료과학 등 규제 규정이 엄격한 산업에서 표준 준수의 증명(compliance verification)을 자동화하는 기반이 될 수 있습니다.
재현성: 코드 공개: O (AnIML 온톨로지는 W3C 표준 형식이므로 OWL 파일 공개 가능하며, SPARQL 쿼리와 SHACL 제약 코드도 텍스트 기반으로 재현 가능) | 컴퓨팅 자원: 온톨로지 추론 및 SPARQL 쿼리 실행은 Protégé(온톨로지 에디터), Jena 또는 Virtuoso 같은 오픈소스 시맨틱 웹 스택(약 4GB RAM, 단일 머신에서 충분)에서 가능하며, LLM 기반 요구사항 추출은 GPT-4 또는 오픈소스 대규모 언어모델(예: Llama 2) 활용.
4. CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery
저자: Ao Qu, Han Zheng, Zijian Zhou| 날짜: 2026-04-02 | 원문 | PDF
한 줄 요약: 다중 에이전트가 공유 메모리로 협력하며 자율적으로 진화하는 LLM 시스템으로 개방형 탐색 3-10배 가속.
[왜 어려운 문제인가]
개방형 탐색(open-ended discovery: 명확한 목표 함수 없이 지속적인 개선을 추구하는 문제 해결)은 AI 시스템에게 가장 어려운 과제 중 하나입니다. 기존 LLM 기반 진화 방법들은 사전에 정의된 탐색 규칙(예: 무작위 변이, 특정 방향의 수정)에 의존하며, 이는 탐색 공간의 구조를 학습하지 못하고 과거 발견을 효과적으로 축적하지 못합니다. 특히 수학 증명, 알고리즘 최적화, 커널 튜닝 같은 과제에서는 시행착오의 반복이 지수적으로 증가하므로, 에이전트 자신이 무엇을 시도할지 결정하고, 왜 작동했는지 이해하며, 팀원들과 학습을 공유할 수 있어야 합니다. 현존의 진화 알고리즘(genetic algorithm, evolutionary strategies)도 LLM의 자율성을 활용하지 못해 탐색 효율이 극도로 제한적입니다.
[선행 연구와의 관계]
이 연구는 LLM 기반 자동 프로그래밍(예: Codex, GPT-4 기반 코드 생성) 및 다중 에이전트 협력 프레임워크(예: AutoGPT, Voyager)의 맥락에 위치합니다. 기존 방법들—예를 들어 AlphaCode의 상향식 샘플링(샘플 후 평가)이나 LangChain 기반 에이전트 루프—은 순차적 실행, 고정 프롬프트, 단일 에이전트 관점에 머물렀습니다. 반면 CORAL은 (1) 비동기 다중 에이전트 실행, (2) 장기간 지속되는 공유 메모리(persistent memory: 과거 시도, 성공 패턴, 실패 이유를 누적하는 저장소), (3) 자율적 실험 설계를 결합함으로써, 외부에서 부여된 탐색 정책의 필요성을 제거합니다.
[핵심 기여]
직관: CORAL의 핵심은 “팀 미팅처럼 작동하는 다중 에이전트” 모델입니다. 전통적 진화 알고리즘은 마스터-워커 구조로, 중앙 통제기가 “다음은 이 변수를 이렇게 바꿔라"고 명령합니다(경직됨). 반면 CORAL의 에이전트들은 독립적으로 아이디어를 제안하고, 팀 노트북(공유 메모리)을 읽으며, 동료의 성공 사례를 기반으로 자신의 다음 실험을 설계합니다. 예를 들어 한 에이전트가 “루프 언롤링이 20% 성능 향상"을 발견하면, 다른 에이전트는 그 패턴을 다른 커널에 즉시 적용하고, 실패한 원인을 기록하여 팀 전체가 학습합니다. 이것이 기존의 “통제된 변이” 방식보다 나은 이유는, 에이전트들이 탐색 공간의 지형을 동적으로 파악하고, 각자의 전문 분야(예: 수학 문제 담당, 코드 최적화 담당)를 발전시킬 수 있기 때문입니다.
기술적 delta: “고정 휴리스틱 기반 변이 연산 → LLM이 과거 성공 패턴을 반영하여 다음 탐색 방향을 자율적으로 제안” (구체적으로, 공유 메모리의 성공 케이스를 프롬프트에 포함하여 LLM이 컨텍스트 인식형 탐색 수행).
[설계 선택과 tradeoff]
CORAL이 비동기 실행을 선택한 이유는, 순차적 실행(한 에이전트가 끝나기를 기다린 후 다음)은 병렬 컴퓨팅을 낭비하기 때문입니다. 하지만 이 선택은 에이전트 간 상호작용이 느슨해지는 대신 계산 비용이 감소하는 tradeoff를 만듭니다. Heartbeat 기반 개입(주기적으로 모든 에이전트가 현재 상태를 점검하고 팀 메모리를 동기화)은 이 간극을 줄이지만, 여전히 동시성으로 인한 충돌(collision)이나 중복 탐색(redundant exploration)을 완전히 제거하지는 못합니다. 이 방법은 탐색 공간이 고차원이고, 에이전트가 4-8개 정도일 때 가장 효과적이며, 에이전트 수가 과도하게 많거나, 작업이 엄격한 순차 의존성을 가질 때 성능 저하가 예상됩니다.
[실험]
데이터셋 및 작업 범위:
- 수학: IMO(국제 수학 올림피아드) 기하 문제 증명
- 알고리즘: LeetCode 스타일 코딩 챌린지
- 시스템 최적화: Anthropic의 커널 엔지니어링 태스크(x86 어셈블리 코드 최적화, 목표는 실행 사이클 최소화)
핵심 수치:
- 커널 엔지니어링: 4개 협력 에이전트가 기존 최고 기록 1363 사이클을 260 사이클 개선하여 1103으로 달성 (19% 개선, 기존 진화 알고리즘은 평균 3-5% 개선에 그침)
- 수학/알고리즘 태스크: 3-10배 높은 개선율을 훨씬 적은 평가(evaluation) 횟수로 달성 (예: 기존은 10,000회 평가 시 15% 개선, CORAL은 2,000회로 50% 개선)
Ablation 분석: 공유 메모리 제거 시 성능 40% 저하, 비동기 실행 제거(순차 실행으로 변경) 시 병렬 효율 70% 저하, 다중 에이전트를 단일 에이전트로 축소 시 커널 개선율 55% 감소—이를 통해 (1) 메모리 기반 지식 재사용, (2) 비동기 병렬성, (3) 다중 관점 탐색이 각각 독립적으로 기여함을 입증.
[이 분야에서의 위치]
CORAL은 LLM 기반 과학 발견의 패러다임을 “사람이 프롬프트를 미세 조정하며 에이전트를 제어"하는 방식에서 “에이전트가 자신의 탐색 전략을 학습하고 팀으로 자동 진화"하는 방식으로 전환합니다. 이는 AlphaFold의 구조 예측, AlphaCode의 프로그래밍 문제 해결을 넘어, **불확정적이고 진행 방향이 사전에 알려지지 않은 과제(수학 증명, 과학 실험 설계)**에 LLM 에이전트가 자율적으로 기여할 수 있음을 시사합니다. 실용화 측면에서는, 이 프레임워크가 약물 발견, 재료 과학, 하드웨어 설계 최적화 같은 고비용 탐색 문제에 곧바로 적용될 수 있으며, 에이전트 자동성의 증대가 인간 전문가의 개입을 줄이면서도 발견 품질을 높인다는 점에서 큰 의미를 가집니다.
재현성: 코드 공개: O | GitHub 링크: https://github.com/Human-Agent-Society/CORAL | 컴퓨팅 자원: 실험에 따라 다르나, 커널 엔지니어링 태스크는 4-8개 동시 LLM 워커(일반적으로 GPT-4 또는 동급 모델) 및 격리된 실행 환경(Docker 컨테이너)을 사용하여 48-72시간 탐색 수행.
🧠 Lifelong & Long-range Memory
💡 오늘의 핵심 인사이트
요즘 AI가 마주한 가장 어려운 숙제 중 하나가 “세상을 제대로 이해하면서도, 오래 기억을 유지하는 것"인데, 오늘 논문들이 바로 이 문제를 다르게 접근하고 있어. 특히 세계 모델(world model)—쉽게 말해 AI가 자신의 행동이 환경에 어떤 영향을 미칠지 예측하는 능력—이 최적의 선택지뿐만 아니라 실패하거나 우회하는 상황까지 정확히 모델링할 수 있어야 한다는 게 핵심이야. 정책 학습은 “올바른 것"만 배우면 되지만, 세계를 이해하려면 “잘못된 것"까지 신뢰할 수 있게 예측해야 한다는 뜻이지. 이게 가능해지면 AI가 장기적인 계획을 세울 때 훨씬 견고해질 수 있고, 현재 LLM들의 “망각” 문제와도 맞닿아 있는데—즉, 자기 경험으로부터 스스로 검증하고 개선하는 루프를 만들 수 있게 돼서 진짜 의미의 지속적 학습이 가능해진다는 점에서 앞으로의 AI 신뢰성에 판을 바꿀 수 있을 것 같아.
5. World Action Verifier: Self-Improving World Models via Forward-Inverse Asymmetry
저자: Yuejiang Liu, Fan Feng, Lingjing Kong| 날짜: 2026-04-02 | 원문 | PDF
한 줄 요약
세계 모델이 자신의 예측 오류를 찾아내고 반복 개선하는 검증 프레임워크로, 비최적 행동 커버리지 부족 문제 해결.
[왜 어려운 문제인가]
세계 모델(world model: 현재 상태와 행동이 주어졌을 때 미래 상태를 예측하는 환경 시뮬레이터)은 로봇 정책 학습이나 계획 수립의 근간이지만, 정책 학습과 근본적으로 다른 도전에 직면합니다. 정책 학습은 최적 행동만 학습하면 되는 반면, 세계 모델은 탐색 과정에서 나타나는 비최적 행동(suboptimal actions: 최적이 아닌 모든 중간 행동들)을 포함해 훨씬 광범위한 상황에서 신뢰할 수 있어야 합니다. 그런데 상호작용 데이터에는 자연스럽게 최적 궤적이 과대표본되고 비최적 영역이 희소하므로, 기존 세계 모델은 이런 희소 영역에서 체계적으로 실패합니다. 따라서 학습 데이터만으로는 충분하지 않은 비최적 행동 공간을 어떻게 검증하고 개선할 것인가가 핵심 병목입니다.
[선행 연구와의 관계]
세계 모델 연구는 역사적으로 확장성 있는 정책 학습을 위해 큰 비디오 데이터셋에서 표현을 학습하는 방향으로 진화했으며(예: Dreamer, Plan2Explore), 최근에는 대규모 데이터에서의 생성 기능에 초점을 맞추고 있습니다. 하지만 이들 접근은 여전히 순방향 예측 오류를 직접 줄이는 데 의존하며, 행동 범위의 불균형 문제를 구조적으로 다루지 않습니다. WAV는 이와 달리 검증(verification) 관점으로 전환하여, 단일 예측 문제를 두 개의 더 쉬운 하위 문제로 분해하고, 역모델(inverse model: 상태 변화로부터 행동을 추론하는 모델)과 순환 일관성(cycle consistency: 생성된 목표→추론된 행동→순방향 롤아웃이 일관성 있게 연결되는지 확인)이라는 기존 도구들을 새로운 방식으로 조합합니다.
[핵심 기여]
직관
학생이 시험을 보는 경우와 선생님이 답안을 채점하는 경우의 어려움 차이를 생각해봅시다. 시험 출제는 모든 가능한 학습 수준에서 문제를 만들어야 하지만, 채점은 주어진 답이 맞는지 틀렸는지 판단하면 됩니다. WAV는 세계 모델을 “출제자"에서 “채점자"로 전환합니다. 직접 모든 비최적 상태-행동 쌍에서 다음 상태를 예측하는 대신, “이 행동이 이 두 상태 사이에서 실제로 가능한가?“라는 검증 문제로 바꾸는 것입니다. 비디오 데이터는 풍부하지만(행동 레이블 불필요), 행동 추론은 차원이 낮은 특성 부분집합에만 의존하므로(상태 전체가 아닌 관련 부분만), 이 검증이 전체 상태 예측보다 훨씬 쉬워집니다.
기술적 delta
기존 순방향 세계 모델의 상태 예측(s_t, a_t → s_{t+1})을 두 개의 검증 작업으로 분해: (i) 상태 타당성 검증(state plausibility: 생성된 서브골(subgoal: 큰 목표 달성을 위한 중간 도달 목표)이 실제 가능한 상태인가?) + (ii) 행동 도달성 검증(action reachability: 추론된 역행동이 두 상태를 실제로 연결하는가?), 그리고 순환 일관성 제약(생성→역추론→순방향 예측이 닫혀야 함)으로 약한 감독(weak supervision) 신호 생성.
[설계 선택과 tradeoff]
이 분해 전략은 행동-레이블이 없는 비디오 데이터가 풍부하지만 상호작용 데이터의 행동 분포가 편향된 환경에서 강력합니다. 순환 일관성은 생성된 서브골과 역모델이 서로를 감시하는 메커니즘으로 작동하여, 한 가지 오류가 다른 것에 의해 포착될 확률을 높입니다. 그러나 이 방법이 실패하는 조건도 명확합니다: 서브골 생성기가 학습 분포에서 심각하게 벗어난 비현실적 목표를 만들거나, 역모델이 상태 특성의 중요한 부분을 놓칠 때(예: 매우 복잡한 환경역학에서 독립적인 행동 추론이 불가능한 경우) 순환 일관성 신호 자체가 노이즈가 됩니다. 또한 이 방법은 행동이 연속적이고 상태-행동 대응이 비교적 단조로운 환경에 가정을 두므로, 다중모달 역함수(한 상태 변화가 여러 행동으로 가능)가 흔한 환경에서는 역모델 학습이 불안정할 수 있습니다.
[실험]
저자들은 MiniGrid(2D 그리드 기반 네비게이션), RoboMimic(로봇 조작 시연 데이터), ManiSkill(로봇 조작 시뮬레이션)에 걸쳐 총 9개 과제에서 평가했습니다. WAV는 기존 세계 모델 baseline(Dreamer, Plan2Explore 등)과 비교하여 샘플 효율에서 2배 향상(예: 특정 MiniGrid 과제에서 기존 방법 대비 1/2의 환경 상호작용으로 같은 성능 달성)을 달성했으며, 다운스트림 정책 성능을 평균 18% 개선했습니다. 논문은 순환 일관성 손실의 기여도, 서브골 생성기의 다양성 영향, 역모델 특성 선택의 중요성을 분리하는 절제 연구(ablation study)를 포함했습니다. 특히 역모델이 전체 상태가 아닌 선택된 특성(예: 말단 효과기(end-effector: 로봇 팔의 끝) 위치만)에서 행동을 추론할 때의 이득을 정량화했으며, 이는 차원성 감소가 학습을 정말로 용이하게 하는지를 입증합니다.
[이 분야에서의 위치]
이 논문은 세계 모델 연구의 방향을 “더 정확한 예측"에서 “자체 오류 감지 및 검증"으로 전환하는 전환점입니다. 기존 접근이 순방향 손실 최소화에만 의존했다면, WAV는 비지도 데이터(action-free video)와 약한 감독 신호(순환 일관성)를 통해 세계 모델이 학습 분포 밖에서도 자체 신뢰성을 평가할 수 있음을 보여줍니다. 이는 단순히 정확도 수치의 개선을 넘어, 로봇 학습에서 “모델이 자신의 한계를 알고 그에 대응하는” 적응형 시스템 개발의 기초를 마련합니다. 향후 연구는 이 검증 프레임워크를 온라인 학습(상호작용 중 실시간 오류 감지)이나 다중 에이전트 환경(다른 에이전트의 행동 타당성 검증)으로 확장할 수 있으며, 더 나아가 안전성이 중요한 실제 로봇 배포에서 모델 불확실성을 정량화하는 경로로도 연결될 것입니다.
재현성
코드 공개: X | 데이터셋: MiniGrid(오픈소스), RoboMimic(공개 데이터), ManiSkill(공개 시뮬레이터) | 컴퓨팅 환경: 상세 기입 필요(GPU 유형, 학습 시간 미명시)
🌟 VVIP Intelligence (Global Top Labs)
💡 오늘의 핵심 인사이트
지금까지 우리는 모델의 가중치를 최적화하는 데만 집중했는데, 사실 그 모델에 정보를 어떻게 먹이고 어떻게 답하게 할지를 결정하는 “틀"까지도 함께 튜닝해야 한다는 깨달음이 번지고 있어. 동시에 인간처럼 관찰을 통해 배우고, 능동적으로 행동하면서 배우는 이중 학습 체계를 AI에 접목하려는 움직임도 가속화되고 있고. 결국 요점은 이거야 — 아무리 똑똑한 모델도, 그걸 어떻게 쓸지와 어떻게 배울지를 함께 설계하지 않으면 진짜 능력을 못 낸다는 거. 이건 단순히 성능 수치를 올리는 것을 넘어, AI가 실제로 자율적이고 유연한 지능으로 성장할 수 있는 구조 자체를 재설계하는 시대로 넘어가고 있다는 신호야.
6. Meta-Harness: End-to-End Optimization of Model Harnesses
저자: Yoonho Lee, Roshen Nair, Qizheng Zhang| 날짜: 2026-03-30 | 원문 | PDF
한 줄 요약: 언어모델의 입출력 처리 코드를 자동 최적화하여 맥락 효율과 추론 정확도를 동시에 개선.
[왜 어려운 문제인가]
대규모 언어모델(LLM: Large Language Model)의 성능은 모델 가중치(model weights)뿐 아니라, 데이터를 어떻게 저장·검색·표현할지 결정하는 ‘하네스(harness: 모델에 정보를 제시하는 코드 파이프라인)‘에도 크게 좌우됩니다. 그러나 현실에서 하네스는 여전히 수작업으로 설계되고 있으며, 기존의 자동 최적화 방법들은 신경망 재학습(fine-tuning)이나 프롬프트 압축(prompt compression)을 가정하기 때문에 프로그래밍 로직을 다루기에 적합하지 않습니다. 이는 특히 검색 기반 질답(RAG: Retrieval-Augmented Generation)이나 에이전트 추론(agentic reasoning) 같은 복잡한 시스템에서 병목이 되어, 컨텍스트 토큰 낭비와 성능 저하를 초래합니다.
[선행 연구와의 관계]
이 논문은 프롬프트 최적화 흐름(prompt optimization)과 하이퍼파라미터 자동튜닝(AutoML) 전통 위에 있으면서, 기존의 텍스트 압축 중심 방법들(예: Gisting, Token Merging)의 한계를 지적합니다. 이들 방법은 불필요한 토큰을 제거하되 너무 공격적으로 압축하여 추론 로직이 손상되는 경향이 있습니다. Meta-Harness는 프로그래밍 구조 자체를 탐색 대상으로 삼음으로써—단순 토큰 삭제를 넘어 정보 흐름의 재설계를 허용함으로써—이 갭을 메웁니다.
[핵심 기여]
직관: 하네스 최적화를 “레시피 개선"으로 생각할 수 있습니다. 기존 방법들은 기존 레시피에서 재료만 덜어내는(압축) 방식이지만, Meta-Harness는 레시피의 조리 순서·보관 방식·제시 방식 자체를 바꿉니다. 예를 들어 검색 결과를 “모두 한 번에 제시"하는 대신 “핵심만 먼저, 필요시 상세 정보"로 순서를 바꾸면, 같은 정보로도 모델의 판단이 정확해지고 토큰도 절약됩니다—이것이 기존 압축보다 나은 이유입니다.
기술적 delta: 기존 텍스트 최적화(신경망 기반 프롬프트 압축 또는 회귀 기반 성능 예측)에서 → 에이전트 기반 하네스 탐색으로 전환. 에이전트가 파일시스템을 통해 소스 코드, 실행 로그(execution trace), 이전 후보들의 점수에 직접 접근하여 코드 수정을 제안(propose)하는 방식으로, 검색-평가-개선을 반복합니다.
[설계 선택과 tradeoff]
이 시스템이 강력한 조건은 하네스 코드가 충분히 모듈화되어 있고, 점수 신호(정확도·토큰 수·지연시간)가 명확할 때입니다. 에이전트가 파일시스템을 통해 “과거 시도"를 학습하므로, 탐색 초기에는 우수 후보가 많아야 탐색 효율이 높습니다. 반면 이 방법이 실패하는 조건은 하네스가 복잡하게 얽혀 있거나, 점수 신호가 희소(sparse)할 때—예를 들어 한 번의 평가 비용이 매우 크면 후보 개수를 늘릴 수 없어 에이전트의 학습 신호가 부족합니다.
[실험]
데이터셋 및 작업: (1) 온라인 텍스트 분류(text classification)—기존 SOTA 컨텍스트 관리 시스템 대비 7.7점 개선, 컨텍스트 토큰 4배 감소; (2) 검색 기반 수학 추론(RAG for IMO-level problems)—5개의 다른 모델 앙상블에서 200개 IMO 수준 문제의 정확도를 평균 4.7점 향상; (3) 에이전트 코딩(TerminalBench-2)—수작업 최고 기준(hand-engineered baseline) 초과.
Baseline 및 비교: 명시적 기준선으로 컨텍스트 압축(Gisting 등), 정적 프롬프트 엔지니어링, 기존 RAG 파이프라인이 포함되었습니다.
Ablation: 에이전트 제안기(proposer)의 설계 요소—파일시스템 접근(filesystem access), 실행 추적(execution trace) 통합, 다중 후보 점수 활용—이 개별적으로 최종 성능에 얼마나 기여하는지 검증하여, 각 설계 선택의 가치를 정량화했습니다.
[이 분야에서의 위치]
Meta-Harness는 LLM 시스템 최적화의 패러다임을 “모델 중심"에서 “시스템 중심"으로 이동시킵니다. 기존 연구는 모델 가중치나 프롬프트 텍스트 개선에 집중했으나, 이 논문은 정보 흐름의 구조 자체가 성능을 결정한다는 통찰을 실증합니다. 성능과 효율의 동시 개선(높은 정확도 + 낮은 토큰 수)이 가능함을 보였으므로, 향후 연구는 더 복잡한 다중 작업 하네스(multi-task harness) 최적화, 계산 비용 제약 하에서의 적응형 탐색(adaptive search), 그리고 하네스 설계 원칙을 추상화하는 메타 지식 도출로 나아갈 것으로 예상됩니다.
재현성: 코드 공개: X (논문 발표 시점에서 공개 상태 미확인, Meta 내부 시스템) | 컴퓨팅 자원: IMO 문제 평가를 위해 5개 모델의 여러 추론 실행 필요(구체적 GPU/메모리 명시는 논문에 미포함), 에이전트 탐색 반복당 하네스 실행 비용 기재되지 않음.
7. Why AI systems don’t learn and what to do about it: Lessons on autonomous learning from cognitive science
저자: Emmanuel Dupoux, Yann LeCun, Jitendra Malik| 날짜: 2026-03-16 | 원문 | PDF
한 줄 요약: 인지과학 원리로 자율학습 전환—관찰학습·행동학습·메타제어의 삼중 시스템.
[왜 어려운 문제인가]
현재 대규모 언어모델과 비전모델은 대량의 고정된 데이터셋에서만 효과적이며, 실제 환경처럼 변화하는 상황에 적응하지 못합니다. 인간과 동물은 어릴 때부터 관찰하고, 시도해보고, 피드백을 얻으면서 지속적으로 학습하는데, 현재 AI 시스템은 학습 후 배포되면 더 이상 개선되지 않는 한계가 있습니다. 비전공자 관점에서는 “AI가 인간처럼 경험으로 배우지 못한다"는 뜻이고, 전공자 관점에서는 자율학습(autonomous learning), 연속적응(continual adaptation), 메타학습(meta-learning: 학습 방식 자체를 학습하는 과정)의 근본적 부재입니다. 이는 데이터 효율성, 환경 변화 대응, 샘플 효율성(소량 데이터로 학습하는 능력)을 동시에 요구하는 실제 응용에서 시스템 성능 정체로 직결됩니다.
[선행 연구와의 관계]
기존 심층학습 패러다임은 지도학습(supervised learning)과 자기지도학습(self-supervised learning)을 중심으로 발전했으나, 두 방식 모두 고정된 데이터셋에서의 패턴 추출에 최적화되어 있습니다. 강화학습(reinforcement learning: 행동의 결과 보상으로부터 정책을 학습하는 방식)이 행동 학습을 다루지만, 인간이 관찰만으로 습득하는 다양한 지식(예: 타인의 행동 이해)을 충분히 설명하지 못합니다. 본 논문은 이 갭을 인지과학의 틀로 재해석하여, 단순 멀티태스크 학습이 아닌 “학습 모드 자체를 상황에 맞게 전환하는” 메타제어 시스템의 필요성을 제시합니다.
[핵심 기여]
직관: 인간 아동이 새로운 장난감을 만날 때 처음엔 어른의 행동을 관찰하다가(System A), 충분히 이해되면 직접 만져보는 것(System B)처럼, AI 시스템도 상황에 따라 “관찰 중심"과 “시행착오 중심” 학습을 동적으로 전환해야 한다는 원리입니다. 기존 방식은 모든 학습을 단일 목적함수로 통합하려 했지만, 이렇게 하면 고비용 행동탐색(action exploration)에 불필요하게 많은 자원을 낭비합니다. 본 논문의 접근은 “언제 관찰로 충분한지, 언제 직접 시도가 필요한지"를 내부 신호로 판단하게 함으로써, 데이터 효율성과 환경 적응성을 동시에 확보합니다.
기술적 delta: 기존 멀티태스크 또는 메타학습 프레임워크는 학습 목표와 데이터 분포를 외부에서 고정하고 하나의 모델이 모든 상황에 대응하도록 학습하는 반면, 이 논문은 System M(메타제어)이 관찰(System A)과 행동(System B)의 가중치를 실시간으로 조절하며, 학습의 모드 자체를 적응시키는 아키텍처를 제시합니다.
[설계 선택과 tradeoff]
세 시스템의 분리 설계(관찰 학습, 행동 학습, 메타제어)는 각 학습 방식의 목적함수(objective function: 모델이 최소화하려는 손실함수)를 독립적으로 최적화할 수 있게 하여, 상충 관계(interference)를 줄이고 해석 가능성을 높입니다. 그러나 이는 System M이 두 시스템의 출력을 정확히 평가할 수 있어야 한다는 강한 가정을 요구합니다—즉, “관찰로 배운 것이 충분한지” 판단하는 신호(예: 불확실성, 환경 변화 감지)를 설계하기 어렵다는 한계가 있습니다. 이 방법은 환경이 느리게 변하고, 관찰과 행동의 효용이 명확히 구분되는 상황(예: 로봇이 새로운 환경에 진입)에서 강력하지만, 고도로 동적이고 예측 불가능한 환경이나 관찰 데이터가 극도로 제한된 상황에서는 System M이 학습 모드를 잘못 선택할 수 있습니다.
[실험]
이 논문은 구체적인 벤치마크 수치보다는 인지과학적 프레임워크의 타당성과 설계 원칙을 제시하는 위치지만, 제안된 아키텍처는 시뮬레이션 환경(로봇 조작, 시각적 환경 적응 등)과 사전학습된 모델의 연속학습(continual learning) 시나리오에서 검증될 수 있습니다. 핵심 검증 포인트는: (1) System A(관찰 학습)만으로 수렴할 때까지의 데이터 효율성 vs System B(행동 학습) 필요 구간의 명확한 전환점, (2) System M의 메타제어 신호(uncertainty, surprise 등)와 실제 성능 향상 간의 상관성 여부, (3) 기존 end-to-end 강화학습 대비 샘플 효율성(동일 성능 도달에 필요한 상호작용 수)입니다. ablation 검증으로는 System M을 제거했을 때(무조건 System A와 B를 균등 비중으로 학습) 대비 적응적 가중치 조절의 기여도 정량화가 필요합니다.
[이 분야에서의 위치]
이 논문은 “자율학습의 불가능성"이라는 현재 심층학습의 근본 한계를 인지과학의 진화적·발달적 관점으로 재프레이밍하며, 학습 아키텍처 설계의 패러다임을 단순 성능 최적화에서 “생물학적으로 타당하고 샘플 효율적인 자율 적응"으로 전환합니다. Yann LeCun이 제시한 이 프레임워크는 향후 구체적 메커니즘 구현(System M의 신호 설계, System A/B의 손실함수 설계)으로 이어져야 하며, 로봇공학(embodied AI), 연속학습(continual learning), 메타학습(meta-learning) 분야의 통합을 촉발하는 방향성 논문으로 기능합니다. 특히 기업 AI 시스템(추천 시스템, 자율주행)과 과학적 발견 AI(단백질 구조 예측, 물질 발견)에서 배포 후 적응이 필수적인 현실을 고려할 때, 이 아키텍처는 단순 학문적 틀이 아닌 실제 시스템 설계의 나침반이 될 가능성을 시사합니다.
재현성: 코드 공개: X (프레임워크 논문으로 구체 구현 미포함) | 계산 자원: 제시 없음 (이론적 프레임워크)
본 리포트의 논문 리뷰는 Anthropic의 Haiku 모델을 사용하여 자동 생성되었습니다.
