virtual-insanity
← 뒤로

학습 패턴 모음

evergreen

학습 패턴 모음

세션에서 자동 추출된 재사용 가능한 패턴. session_learner.py가 자동 축적.


2026-03-18

  • 🔧 [해결] 호환성 문제는 최소 변경으로 맞춘다
  • Python 3.9 호환을 위해 Optional[dict]를 새로 임포트하기보다 타입힌트 부분(dict|None)을 제거하여 최소한의 코드 변경으로 문제를 해결함 — 리스크가 작고 빠르게 복구 가능한 방식 우선 적용.
  • 태그: 호환성, 최소변경, 파이썬

  • ⚖️ [판단] 기능 도입 여부는 통합 가능성과 자동화 효과로 판단한다

  • 새로운 기능(Dispatch)을 바로 도입하지 않고 Claude Code와의 통합 가능성(예: --dispatch 옵션 추가)과 실제 워크플로우에 주는 자동화 가치를 기준으로 지켜보거나 도입 시점 결정.
  • 태그: 도입결정, 통합성, 자동화

  • 💡 [발견] 데스크톱 Dispatch와 CLI는 사용성·권한 모델이 다르다

  • Dispatch는 폰↔데스크톱 연동, 사용자 승인 중심의 데스크톱 앱 기능인 반면 Claude Code는 터미널 기반으로 로컬 파일 접근과 권한 설정을 통해 자동 실행이 가능하다는 차이를 확인함.
  • 태그: 툴비교, 권한, 사용성

  • 🔄 [개선] 대화 로그와 세션 로그를 분리 저장해 검색 편의성 확보

  • 대화 로그를 별도 폴더에 저장하도록 결정하여 목적별 검색과 관리가 쉬워지게 함 — 로그 용도에 따라 저장소를 분리하는 규칙화로 검색·운영 효율 향상.
  • 태그: 로그관리, 운영효율, 검색

  • 🔧 [해결] 유사 기능은 기존 파이프라인으로 매핑해 적용 가능성 검토

  • Dispatch의 핵심(원격 지시→원격 실행)은 이미 텔레그램 봇·크론·CLI - 파이프라인 조합으로 대체 가능하므로 즉시 도입 대신 기존 인프라로 필요한 흐름을 재현함.
  • 태그: 워크플로우, 재사용, 대체

  • 📚 [교훈] 새 기능은 문서·버전 확인 후 현재 워크플로우와 비교하라

  • 트윗·공식 문서·현재 CLI 버전을 확인해 기능(Dispatch)이 실제로 우리 CLI에 적용되는지 검증한 뒤 대응 방안을 결정한 점 — 정보 확인 없이 바로 구현 착수하는 실수를 피함.
  • 태그: 검증절차, 문서확인, 리스크회피

2026-03-19

  • 🔧 [해결] 범위가 맞지 않는 기술은 전면 도입 대신 일부만 선택해 적용
  • 도메인 불일치로 전체 OMC 도입이 부적절하다고 판단하고, 개발에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 체리픽해 적용함. 큰 틀을 거부하고 부분 적용으로 비용·리스크를 낮추는 방식.
  • 태그: 범위관리, 리스크완화, 체리픽

  • ⚖️ [판단] 기능별 요구에 따라 모델 라우팅을 계층화한다

  • 심층 판단, 분석·디버깅, 빠른 실행 등 요구 수준에 따라 Opus/Sonnet/Haiku로 3단계 라우팅을 설계해 각 모델의 강점을 매핑함. 성능·응답속도·역할을 기준으로 모델 배정 판단.
  • 태그: 모델선정, 라우팅, 성능기준

  • 💡 [발견] 작업 세분화로 에이전트 수 확장이 효율 개선으로 이어짐

  • 작업을 세분화해 기존 8개에서 12개로 에이전트를 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)함으로써 역할 집중과 전문화가 가능해짐.
  • 태그: 조직화, 분업, 확장

  • 🔄 [개선] 사전 정리(learner 추출)와 사전 압축(preemptive-compaction)으로 비용 절감

  • 학습 패턴 추출 및 프롬프트/데이터에 대한 사전 압축 훅을 추가해 LLM 호출량/프롬프트 길이를 관리하도록 워크플로우를 개선함(프롬프트 총량 관리 의도).
  • 태그: 비용절감, 프롬프트최적화, 파이프라인

  • 📚 [교훈] 전면 적용보다 우선 검증 가능한 소규모 체리픽이 안전하다

  • 전부 도입을 시도하면 도메인 불일치로 실패 위험이 커지므로, 소규모 기능을 먼저 적용해 성과와 적합성을 확인한 뒤 확대해야 한다는 교훈을 얻음.
  • 태그: 실험적도입, 리스크관리

  • 💡 [발견] 모델별 응답 특성(레이턴시·역할) 차이가 운영 설계에 영향

  • 세션 통계에서 모델별 평균 레이턴시가 크게 달라(예: gpt-5-mini 14s vs sonnet 5.5s) 라우팅 설계에 레이턴시를 반영해야 함이 확인됨.
  • 태그: 측정기반설계, 성능관측

2026-03-19

  • ⚖️ [판단] 전체 도입 대신 핵심만 체리픽
  • 대규모 프레임워크(OMC)를 전면 도입하기보다 도메인 적합성 기준으로 핵심 기능 3가지를 선별해 적용함(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 도메인 불일치 시 '필수·가치 높은 부분만 가져오기'를 결정 기준으로 사용.
  • 태그: 의사결정, 범위선택, 도메인적합성

  • 🔄 [개선] 모델 라우팅을 3단계로 분리

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델/에이전트를 계층화하여 요청을 라우팅함으로써 응답 지연·비용·정확도 균형을 맞춤.
  • 태그: 아키텍처, 모델선택, 성능

  • 🔧 [해결] 에이전트 수평 확장 + 역할 분화로 처리량 확보

  • 기존 8개에서 12개로 에이전트를 늘리고 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 역할을 추가해 작업 병렬화와 전문화를 통해 처리량과 진단 능력 개선.
  • 태그: 스케일링, 조직, 병렬화

  • 🔧 [해결] 프롬프트/응답·호출 통계로 모델 운영 의사결정

  • 총 호출수·성공률·프롬프트 총량·평균 레이턴시 등 지표를 수집해 어떤 모델을 주력으로 둘지, 라우팅 규칙을 어떻게 조정할지 판단함(예: 레이턴시 낮은 Sonnet에 분석 부하 배치).
  • 태그: 관찰, 운영, 모니터링

  • 💡 [발견] 문서 기반 확인의 중요성 — 초기 정보 정정 발생

  • 08:15에 gpt-5.4-mini 공개 불가로 기록했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정함. 외부 공개 여부는 문서/공식 소스로 교차검증해야 함을 보여줌.
  • 태그: 검증, 문서확인, 신뢰성

  • 📚 [교훈] 응답 누락 시 즉시 사과·추가 제공이 필요

  • Vg(Venture Global)를 답변에서 누락했다가 사용자의 지적으로 바로 정정하고 상세 정보를 추가함. 정보 누락시 빠른 인정 + 보완이 신뢰 회복에 효과적임.
  • 태그: 커뮤니케이션, 운영절차

  • 🔄 [개선] 사전정리(preemptive-compaction) 훅으로 상태관리 비용 절감

  • preemptive-compaction 스크립트/훅을 추가해 세션·에이전트 상태·프롬프트 누적으로 인한 비용·지연을 사전에 정리·압축하도록 자동화함.
  • 태그: 자동화, 유지보수, 성능

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때에는 전면 도입 대신 문제에 맞는 핵심 기능(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용해 시간과 복잡도를 줄였다.
  • 태그: OMC, 체리픽, 범위제한

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 복수 모델을 쓸 때 성능·목적에 따라 라우팅(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행)해 각 모델의 강점을 살려 배치 결정을 내렸다.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 모델별 호출 특성 차이(레이턴시·호출량)

  • 세션 통계에서 모델별 호출수와 평균 레이턴시가 크게 달라 운영 상 우선순위와 비용·성능 트레이드오프를 확인할 수 있었다(예: github-copilot 높은 레이턴시, sonnet 낮은 레이턴시).
  • 태그: 관찰, 모니터링, 성능

  • 🔧 [해결] 로컬 CLI와 설정으로 모델 오버라이드

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키를 지원하므로, 공식 공개 여부와 상관없이 로컬에서 모델 오버라이드를 통해 실험·전환을 가능하게 했다.
  • 태그: 도구설정, 모델전환, 운영

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트 수를 늘려(8→12) 기능을 분리(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)함으로써 책임 범위가 명확해지고 병렬 작업이 쉬워졌다.
  • 태그: 아키텍처, 스케일링, 책임분리

  • 📚 [교훈] 초기 미포함 항목은 목록화해 후속 보완

  • 대화에서 특정 유망 종목(VG)을 빠뜨렸을 때 즉시 사과하고 누락 항목을 보완해 목록 업데이트함 → 사용자 신뢰 회복과 누락 재발 방지의 필요성 확인.
  • 태그: 커뮤니케이션, 실수복구, 신뢰

  • 💡 [발견] 사건(예: Shah 가스전 피격)이 공급망·섹터에 연결됨

  • 지정학적 사건이 황 공급 차질→비료 원료 가격·비료업체 수혜로 이어진 사례처럼 단일 사건이 여러 섹터(비료·농업 등)에 연쇄 영향 미침을 확인함.
  • 태그: 인과관계, 지정학, 섹터연결

  • ⚖️ [판단] 응답 개선은 사과+즉시 보완이 빠름

  • 정보 누락에 대한 최선의 대응 기준으로는 빠른 사과와 누락 보완(추가 정보·리스트 제공)이 사용자 만족을 회복하는 데 효과적임.
  • 태그: UX, 대응원칙, 고객응대

2026-03-19

  • 🔧 [해결] 문제 핵심만 체리픽해 적용
  • 전체 OMC 도입이 도메인에 맞지 않을 때 모든 기능을 붙이지 않고, '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 핵심 3가지만 선택적으로 적용해서 이득만 취함.
  • 태그: 체리픽, 최소화, 효율성

  • ⚖️ [판단] 기능 도입 여부는 도메인 적합성 기준으로 결정

  • 새 프레임워크(OMC 등)는 '도메인 적합성'을 우선 검토하고, 전문성이 맞지 않으면 전체 채택 대신 부분적 채택(체리픽)으로 결정함.
  • 태그: 도메인적합성, 의사결정기준

  • 💡 [발견] 모델별 라우팅으로 역할 분담 효과

  • 3단계 모델 라우팅(Opus 심층 판단, Sonnet 분석·디버깅, Haiku 빠른 실행)을 도입하니 각 모델에 맞는 작업을 할당해 응답 레이턴시/성능·비용 균형을 맞출 수 있음.
  • 태그: 모델라우팅, 역할분배, 성능

  • 🔧 [해결] 작업 특성에 따른 에이전트 확장

  • 필요한 기능(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 파악하고 에이전트를 8→12개로 늘려 역할을 세분화해 병렬 처리와 책임 분리가 가능해짐.
  • 태그: 스케일링, 모듈화, 병렬처리

  • 💡 [발견] LLM 호출 통계로 성능·신뢰성 모니터링

  • 모델별 호출 수·성공률·평균 레이턴시를 기록해 어떤 모델이 비용·지연·신뢰성 측면에서 효율적인지 판단할 수 있음(예: sonnet 레이턴시 낮음).
  • 태그: 관측, 모니터링, 지표기반

  • 🔄 [개선] 로컬 도구는 모델 오버라이드 지원 활용

  • Codex CLI의 -m/--model 및 config.toml model 키를 활용해 로컬에서 모델을 쉽게 변경·테스트하도록 워크플로우 개선 — 외부 공개 여부와 상관없이 내부 실험 지속 가능.
  • 태그: 도구활용, 유연성, 개발운영

  • 📚 [교훈] 정보 정정은 즉시 로그로 남기기

  • 초기 메시지에서 '공개 여부 불확실'로 기재한 뒤 정정된 사실(gpt-5.4-mini 공개 확인)이 나왔으므로, 정정 시점과 근거를 의사결정 로그에 즉시 기록해 추적성 보장해야 함.
  • 태그: 투명성, 교정절차, 기록

  • 🔧 [해결] 도메인 빠른 보완: 빠진 항목 신속 추가

  • 대화에서 특정 종목(VG)이 누락되었을 때 즉시 사과하고 누락된 항목(Venture Global)을 추가 분석해 보완된 리포트를 제공 — 응답 신뢰성 회복 방법.
  • 태그: 사용자커뮤니케이션, 보완절차, 신뢰회복

  • ⚖️ [판단] 에러·실패 비율 기준으로 운영 신뢰성 판단

  • 세션별 LLM 호출 성공률과 에러 수(예: 98%·6건)를 기준으로 시스템 신뢰성·운영 리스크를 평가하고, 에러 원인 조사 우선순위를 정함.
  • 태그: 운영지표, 신뢰도평가, 우선순위

  • 🔄 [개선] 대형 응답은 요약·폴더형 전달

  • 긴 종목분석(4,000+자)을 제공할 때 핵심 요약(섹터별 요약 표) + 상세 본문 분할 제공으로 소비자(해리)가 빠르게 핵심을 파악하도록 워크플로우를 개선함.
  • 태그: 가독성, 정보설계, 요약

2026-03-19

  • 🔧 [해결] 대규모 기능은 체리픽으로 필요한 부분만 가져와 적용한다
  • 전체 OMC 도입이 도메인 불일치로 비효율적일 때, 핵심적인 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 개발 비용을 줄이고 효과를 얻음.
  • 태그: 체리픽, 범위축소, 효율화

  • ⚖️ [판단] 모델 라우팅은 작업 성격(심층판단/분석/빠른실행)으로 결정한다

  • 에이전트·모델을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 작업 특성별로 라우팅하면 응답 품질과 비용/레이턴시 균형을 맞출 수 있음.
  • 태그: 모델선택, 라우팅, 비용-성능

  • 💡 [발견] 모델별 호출수·레이턴시가 운영 비용과 병목을 보여준다

  • 세션 통계에서 호출 빈도와 평균 레이턴시(예: gpt-5-mini는 호출 적지만 레이턴시 높음, sonnet은 호출 많고 레이턴시 낮음)를 통해 어떤 모델을 주력으로 쓰고 보완할지 판단할 수 있음.
  • 태그: 관찰, 모니터링, 운영지표

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 확장한다

  • 단순 수량 증가는 지양하고 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep처럼 역할을 명확히 나눠 기능별 에이전트를 추가하여 책임과 탐지 범위를 분리함.
  • 태그: 아키텍처, 역할분리, 확장성

  • 📚 [교훈] 초기 누락은 빠른 정정보고로 신뢰 회복

  • Venture Global(VG) 누락 사례처럼 중요한 항목을 빠뜨리면 즉시 정정·사과하고 보완 정보를 제공해야 신뢰 손실을 줄일 수 있음.
  • 태그: 커뮤니케이션, 운영절차, 사후대응

  • 🔧 [해결] 도메인 불일치일 때 전체 도입보다 검증 가능한 소범위 적용으로 리스크 줄임

  • 도메인 적합성 불확실한 대규모 과제는 전체 도입을 미루고 소범위(체리픽)로 먼저 적용해 검증 후 단계적 확대하는 접근을 사용함.
  • 태그: 리스크관리, 검증우선

  • ⚖️ [판단] 문서·공식 표기를 우선 확인한 뒤 로컬 툴 설정을 검토한다

  • 모델 공개 여부(예: gpt-5.4-mini)는 공식 문서에서 먼저 확인하고, 로컬 Codex의 모델 오버라이드 가능성(-m/--model, config.toml)은 그 다음에 판단해 실제 적용 가능성을 결정함.
  • 태그: 검증절차, 정보출처우선순위

  • 💡 [발견] 프롬프트/응답 총량 지표로 작업 효율과 비용 추정 가능

  • 프롬프트 총량·응답 총량·총 호출수 같은 지표는 세션별 비용·토큰사용·작업량을 정량적으로 비교하는 데 유용함.
  • 태그: 계량지표, 비용추정

2026-03-19

  • 🔧 [해결] 큰 프레임워크 전체 도입 대신 핵심 기능만 체리픽하여 적용
  • OMC 같은 대형 방식이 도메인에 맞지 않을 때 전체 도입을 피하고, 도메인에 적합한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현해 효과와 리스크를 줄임.
  • 태그: 체리픽, 범위축소, 리스크관리

  • ⚖️ [판단] 기능 도입 여부는 도메인 적합성으로 결정

  • 새 기법이나 프레임워크를 도입할 때 '도메인 적합성'을 우선 검토한다. 도메인과 맞지 않으면 부분 도입(체리픽)이나 대체 방안을 택함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델 라우팅을 계층화해 역할을 분리하면 효율 향상

  • 3단계 모델 라우팅 설계(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)를 통해 각 모델의 강점에 맞는 작업을 분배해 호출 수/지연/비용을 최적화함.
  • 태그: 모델라우팅, 역할분리, 효율화

  • 🔧 [해결] 모델 공개 여부 혼선은 공식 문서와 로컬 툴 설정을 함께 확인

  • 공식 모델 공개 여부가 불확실할 때는(예: gpt-5.4 mini) 공식 문서 확인과 동시에 로컬 CLI(Codex)의 모델 오버라이드 지원(-m/--model, config.toml)을 확인해 대체 경로 준비.
  • 태그: 검증절차, 백업플랜, 도구설정

  • 🔄 [개선] 에이전트 확장 시 역할 전문화로 안정성 확보

  • 기존 에이전트를 단순 확대하는 대신 기능별 전문 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)를 추가해 책임과 기능을 분리함으로써 유지보수성과 디버깅 효율을 높임.
  • 태그: 아키텍처, 모듈화, 운영효율

  • 💡 [발견] 운영 통계(호출 수·성공률·레이턴시)는 모델별 라우팅 결정에 유용

  • 세션별 LLM 호출 통계(총 호출, 성공률, 평균 레이턴시)를 수집해 어떤 모델을 어느 작업에 배치할지(심층 판단 vs 빠른 실행)에 대한 근거로 삼음.
  • 태그: 계측, 데이터드리븐, 모델선정

  • 📚 [교훈] 응답 누락·오류 발생 시 빠르게 사과하고 보완정보 제공

  • 사용자에게 누락(예: VG 미표기)이 지적되면 즉시 사과하고 관련 내용을 보충 설명하여 신뢰 회복 — 대화형 지원에서는 빠른 정정과 보완이 중요함.
  • 태그: 사용자대응, 신뢰회복, 사과및보완

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽만 적용
  • OMC 전체 도입은 도메인 불일치로 부적절하다고 판단하고, 필요한 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택적으로 구현해 문제를 최소화함.
  • 태그: 체리픽, 범위관리, 엔지니어링

  • ⚖️ [판단] 모델 라우팅은 역할·지연성 기준으로 분리

  • 모델을 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)으로 3단계 라우팅해 각 모델의 강점(정확도 vs 속도)에 맞춰 할당함.
  • 태그: 모델선택, 성능트레이드오프

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 -m/--model 또는 model 키로 로컬에서 모델 변경이 가능함을 확인해 배포/테스트 유연성이 확보됨.
  • 태그: 툴링, 운영

  • 🔄 [개선] 사전압축(preemptive-compaction) 훅 도입

  • 대용량 프롬프트/로그 사용을 줄이고 처리 효율을 올리기 위해 preemptive-compaction 스크립트를 훅으로 추가해 비용·레이턴시 최적화 시도.
  • 태그: 성능최적화, 프롬프트관리

  • 💡 [발견] 운영 통계로 모델 신뢰도 모니터링

  • 모델별 호출수, 성공률, 평균 레이턴시를 지속 집계해 성능 저하(예: 일부 모델의 0% 성공률)를 빠르게 탐지할 수 있음.
  • 태그: 관찰성, 모니터링

  • 📚 [교훈] 정보 불확실성은 즉시 정정 로그 남기기

  • gpt-5.4-mini 공개 여부를 둘러싼 초기 불확실성을 정정했으므로 문서·의사결정 로그에 정정 시점과 근거를 남기는 것이 혼선 방지에 중요함.
  • 태그: 문서화, 투명성

  • 🔧 [해결] 사용자 불만(누락 종목)에는 빠른 인정·보완

  • 사용자가 지적한 VG 누락에 대해 즉각 사과하고 누락 종목을 상세 보완해 고객 신뢰를 회복하는 응답 흐름을 확립함.
  • 태그: 고객응대, 품질관리

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분담

  • 에이전트 수를 8→12로 늘려 analyst/report-writer/pipeline-debugger/cron-doctor 등 역할을 분리해 병렬 처리와 책임소재를 명확히 함.
  • 태그: 운영확장, 책임분리

2026-03-19

  • 🔧 [해결] 도메인 불일치인 경우 체리픽으로 핵심만 도입
  • OMC 전체 도입은 도메인 맞지 않음 → 적용 범위를 좁혀 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 핵심 3가지만 체리픽하여 구현함. 전사적 적용보다 부분 도입으로 위험/비용을 줄이고 가치 산출을 우선함.
  • 태그: 적용전략, 리스크관리, 체리픽

  • 🔧 [해결] 모델 역할을 분리해 라우팅으로 부담 분산

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku로 3단계 모델 라우팅을 적용해 각 모델의 강점에 맞춰 작업을 분배함. 결과적으로 레이턴시·정확도·비용 균형을 개선.
  • 태그: 모델라우팅, 아키텍처, 성능

  • ⚖️ [판단] 전체 도입 vs 부분 체리픽 판단 기준: 도메인 적합성

  • 새 시스템(OMC)을 전면 도입할지 판단할 때 '팀의 도메인 전문성'을 우선 기준으로 삼음. 도메인 적합성이 낮으면 전체 도입 대신 유효한 소수 기능만 선택 적용함.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 호출 패턴과 레이턴시 차이로 역할 최적화 가능

  • 로그에서 github-copilot/gpt-5-mini 호출은 레이턴시가 높고 호출 수는 적음, claude-sonnet 계열은 호출량 많고 레이턴시 낮음 → 역할(심층 판단 vs 빠른 응답)에 따라 모델을 할당하면 효율 향상 가능.
  • 태그: 관찰, 모델선택, 성능관측

  • 🔄 [개선] 에이전트 수평 확장으로 전문화된 역할 추가

  • 기존 에이전트 8개에서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 4개를 추가해 총 12개로 확장. 작업을 더 세분화하여 책임과 기능을 명확히 분리함으로써 병렬성·전문성 증가.
  • 태그: 운영, 스케일링, 조직

  • 📚 [교훈] 문서 확인 단계의 빠른 정정으로 정보 불일치 해소

  • 08:14에 'gpt-5.4 mini 공개 확인 불가'로 판단 후 08:16에 공식 문서에서 공개 표기 확인으로 정정함 → 초기 확인 결과가 불확실할 땐 빠르게 재검증하고 로그에 정정 기록을 남겨 혼선 최소화.
  • 태그: 검증절차, 커뮤니케이션, 교정

  • 🔧 [해결] 대화형 응답에서 누락 발견 시 사과 후 보완 응답 제공

  • 사용자가 특정 종목(VG) 지적 → 시스템은 즉시 사과하고 빠르게 누락된 종목(Venture Global)과 이유·지표를 보강해 상세 요약 제공함. 사용자 신뢰 회복을 위해 빠른 인정+보완을 패턴화.
  • 태그: 고객응대, 대화UX

  • 💡 [발견] 전쟁·공급 충격이 섹터별 수혜로 직접 연결됨

  • 세션 분석에서 전쟁·피격(샤흐 가스전) 등 이벤트가 방산·에너지·금·비료·해운 등 특정 섹터의 급등으로 연결되는 패턴을 확인 → 이벤트→원자재/수요 충격→섹터별 수혜 식의 매핑을 정형화할 수 있음.
  • 태그: 도메인지식, 이벤트분석, 금융

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심만 도입
  • OMC 전체 도입이 도메인에 맞지 않을 때 전체를 적용하지 않고, '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 3가지만 선택해 적용하여 비용과 복잡도를 줄임.
  • 태그: 체리픽, 비용절감, 점진도입

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리

  • 에이전트 기능(심층 판단/분석·디버깅/빠른 실행)에 따라 Opus/Sonnet/Haiku처럼 모델을 역할별로 라우팅해 성능·응답속도·정확도 균형을 맞춤.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인해, 로컬 환경에서 모델 전환이 가능함을 확인함.
  • 태그: 도구동작, 모델전환, 검증

  • 🔄 [개선] 에이전트 확장으로 역할 분화

  • 기존 에이전트 수를 늘려(8→12) analyst/report-writer/pipeline-debugger-deep/cron-doctor-deep 등 전문 역할을 추가함으로써 책임 분리와 전문성 향상을 도모함.
  • 태그: 아키텍처, 확장, 역할분리

  • 🔧 [해결] 오류·성능 모니터링 통계로 운영판단

  • LLM 호출 통계(총 호출, 성공률, 레이턴시, 에러 수)를 주기적으로 수집해 모델별 문제·성능을 파악하고 어떤 모델을 더 자주/적게 쓸지 결정함.
  • 태그: 모니터링, 운영결정, 측정기반

  • 📚 [교훈] 부분 정보에 의한 성급한 결론 수정보완 필요

  • 08:15에 gpt-5.4-mini 공개 불가로 기록했다가 08:16 정정으로 공개 표기 확인 — 외부 문서 조회 결과는 한 번 더 교차검증하고 기록·공유해야 함.
  • 태그: 검증, 문서확인, 절차개선

  • 💡 [발견] 도메인 적합성 판단으로 도입 범위 결정

  • OMC 방식의 전체 도입을 자동으로 선택하지 않고 '도메인 적합성'을 기준으로 불필요하면 체리픽만 적용하는 의사결정 기준이 사용됨.
  • 태그: 의사결정기준, 도메인적합성, 체리픽

  • 🔄 [개선] 프롬프트·응답량 추적으로 비용·품질 관리

  • 프롬프트 총량·응답 총량·호출 횟수 데이터를 기록함으로써 모델 사용량과 비용, 응답 품질 사이의 균형을 관리하는 워크플로우로 개선함.
  • 태그: 비용관리, 품질관리, 계량지표

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전체 도입 대신 핵심 기능만 체리픽
  • OMC(큰 프레임워크)가 도메인과 맞지 않을 때 전체 도입을 강행하지 않고, 도메인에 맞는 3가지 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별 적용하여 비용·리스크를 줄이고 빠른 가치 실현을 택함.
  • 태그: 작업범위, 리스크관리, 빠른가치

  • ⚖️ [판단] 모델 라우팅은 역할(심층판단·분석·속도)에 따라 분리

  • 에이전트 라우팅을 Opus(심층 판단 중심), Sonnet(분석·디버깅 중심), Haiku(빠른 실행 중심)로 3단계로 분리해 모델 특성(정확도 vs 속도)과 작업 유형에 따라 모델을 선택하도록 결정함.
  • 태그: 모델선택, 운영정책

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • 공식 문서 확인 결과 Codex CLI는 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델 변경(오버라이드)을 지원하는 것으로 확인됨. 따라서 로컬 환경에서 모델 전환이 가능함.
  • 태그: 도구기능, 운영

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화해 책임 분담

  • 기존 8개 에이전트를 12개로 늘리며 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 각 에이전트의 책임을 좁히고 전문화함으로써 디버깅·보고·크론 진단 처리 효율을 높임.
  • 태그: 아키텍처, 운영확대

  • 🔧 [해결] 프롬프트·호출 통계 모니터링으로 성능·신뢰도 확보

  • LLM 호출 수, 성공률, 프롬프트·응답 총량, 모델별 평균 레이턴시 같은 지표를 수집해 성능 병목(레이턴시)과 안정성(성공률, 에러 수)을 실시간으로 추적·검토함.
  • 태그: 모니터링, 품질관리

  • 📚 [교훈] 초기 누락은 빠르게 인정하고 보완해야 신뢰 유지

  • 대화에서 특정 종목(VG)을 누락한 점을 즉시 인정하고 보완 설명을 제공함으로써 신뢰 회복과 정보 완성도를 높임 — 실수 발생 시 투명한 정정과 빠른 보완이 중요함.
  • 태그: 커뮤니케이션, 신뢰

  • 💡 [발견] 전시(정치·군사) 이슈는 특정 섹터(방산·에너지·해운·비료 등)에 체계적 영향

  • 세션 분석에서 전쟁·지정학적 사건은 방산(생산증대), 에너지(LNG·정유), 해운(물류·운임), 비료(원료 공급 차질) 등 섹터별로 명확한 수혜·리스크 경로를 보였음 — 이벤트→섹터 매핑을 투자 분석에 활용 가능.
  • 태그: 도메인지식, 투자분석

  • 🔄 [개선] 체리픽·작은 배포로 실험→확장 루프 적용

  • 전체 시스템 대체 대신 영향 큰 소수 기능을 먼저 체리픽해 도입하고 성과를 본 뒤 필요하면 점진 확장하는 방식으로 개발·운영 리스크를 줄임(실험→확인→확장 루프).
  • 태그: 배포전략, 실험문화

2026-03-19

  • 🔧 [해결] 체리픽(cherry-pick)으로 필요한 기능만 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 필요한 부분만 선별해 적용(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 등)하여 비용·복잡도 감소와 빠른 효과 확보
  • 태그: 체리픽, 점진도입, 위험절감

  • ⚖️ [판단] 도메인 적합성으로 도입 여부 결정

  • 새 방법론이나 도구는 '도메인 적합성' 기준으로 전체 도입 vs 부분 도입을 판단한다(예: OMC 전체는 불필요 → 3가지만 체리픽)
  • 태그: 도메인적합성, 의사결정기준

  • 💡 [발견] 모델 라우팅을 역할 기반으로 분리

  • 심층 판단·분석·빠른 실행 등 역할별로 모델 라우팅(Opus/ Sonnet/ Haiku)하면 호출 효율과 응답 특성 최적화 가능
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • 🔄 [개선] 에이전트 수평 확장으로 기능 분리

  • 단일 에이전트의 역할을 늘리기보다 기능별(analyst, report-writer, pipeline-debugger 등)로 에이전트를 늘려 책임과 디버깅 범위를 명확히 함
  • 태그: 아키텍처, 에이전트확장, 책임분리

  • 📚 [교훈] 로그·통계로 신뢰성 검증 필요

  • LLM 호출 통계(호출수·성공률·프롬프트·응답량)를 정기적으로 기록해 오류·비효율 원인을 추적하지 않으면 문제 재발 가능
  • 태그: 모니터링, 운영지표, 교훈

  • 🔧 [해결] 정정·추가 확인으로 정보 불일치 해소

  • 문서상 불확실(예: gpt-5.4 mini 공개 여부)은 공식 문서 재확인→정정 로그 기록 방식으로 혼선 최소화
  • 태그: 검증프로세스, 정정절차

  • 💡 [발견] 도메인 사건이 섹터별 투자 기회를 직접 연결

  • 정책·사건(무기 증산 요청, 가스전 피격 등)은 방산·에너지·비료·금 등 섹터별 수혜를 빠르게 연계해 통찰을 제공함(정보→투자 힌트 패턴)
  • 태그: 인사이트추출, 도메인연계

  • ⚖️ [판단] 모델 선택은 응답 속도·심층성 기준으로 결정

  • 요청이 '심층 판단'인지 '빠른 실행'인지에 따라 느리지만 심층 모델과 빠르게 응답하는 경량 모델을 구분해 사용(레이턴시·목적 기반)
  • 태그: 모델선택기준, 레이턴시, 목적지향

2026-03-19

  • 🔧 [해결] 체리픽으로 기능만 선택해 도입 비용 절감
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 필요한 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 적용함으로써 개발 비용과 리스크를 줄임.
  • 태그: 의사결정, 리스크관리, 체리픽

  • 🔧 [해결] 모델 역할별 라우팅으로 작업 분담

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델 라우팅해 각 모델의 강점을 살려 처리 효율과 응답 품질을 개선함.
  • 태그: 아키텍처, 모델라우팅, 효율화

  • ⚖️ [판단] 도메인 적합성으로 도구 도입 결정

  • 새 방법/도구 도입 시 전체 도입 대신 도메인 적합성을 기준으로 필요 부분만 채택할지 여부를 결정함(전문성 불일치시 축소 도입).
  • 태그: 판단기준, 도입전략

  • 💡 [발견] 모델별 레이턴시·호출 패턴 차이 확인

  • 같은 작업에서 모델별 호출 수와 평균 레이턴시가 크게 다름(예: copilot 긴 레이턴시, sonnet 짧은 레이턴시) — 작업 유형에 맞는 모델 선택으로 비용·속도 균형 조정 가능.
  • 태그: 관찰, 모델성능, 운영지표

  • 🔄 [개선] 로컬 CLI 오버라이드로 모델 전환 유연성 확보

  • Codex CLI의 -m/--model 및 config.toml model 키로 로컬에서 모델을 손쉽게 오버라이드하도록 확인해 배포·테스트 유연성을 높임.
  • 태그: 운영, 유연성, 도구설정

  • 💡 [발견] 문서 정합성 검증의 필요성 — 초기 정보 오류 수정 사례

  • 같은 날짜에 모델 공개 여부 관련 초기 응답과 정정 응답이 나옴 → 외부 문서(공식 Models 문서) 검증 후 정정함으로써 정보 신뢰성 유지 필요성 확인.
  • 태그: 정보검증, 품질관리

  • 🔧 [해결] 전략적 섹터 맵으로 누락 종목 보완

  • 사용자 불만(특정 종목 누락)에 대해 섹터별 수혜 종목 맵(방산·에너지·금·사이버보안 등)을 제공해 빠진 종목(VG 등)을 보완하고 신속한 대응 수행.
  • 태그: 고객응대, 콘텐츠보완

  • 📚 [교훈] 초기 요약·응답에서 범위 누락 시 빠른 사과와 보완이 신뢰 회복에 효과적

  • Vg(벤쳐글로벌) 누락 사례에서 즉시 사과하고 상세 보완정보(VG 데이터·이유)를 제공해 신뢰 손실을 최소화함 — 응답 전 핵심 항목 체크리스트 도입 권장.
  • 태그: 고객커뮤니케이션, 교훈

  • 🔄 [개선] 세션 로그에 변경파일·작업·의사결정 기록을 일관되게 남김

  • 세션에서 생성/수정 파일 목록과 의사결정 로그를 명시적으로 기록해 추후 재현성과 책임 추적이 쉬워짐. 워크플로우 표준으로 정착 권장.
  • 태그: 운영절차, 추적가능성

  • 💡 [발견] LLM 호출 통계로 성공률·에러 원인 파악 가능

  • 호출 수, 성공률, 프롬프트·응답 총량 등 지표를 통해 모델별 안정성(예: 일부 모델 호출 0% 성공)을 빨리 감지하고 대체 전략을 세울 수 있음.
  • 태그: 모니터링, 지표

2026-03-19

  • 🔧 [해결] 체리픽으로 적절한 범위만 도입
  • OMC 전체 도입은 도메인 불일치로 불필요하다고 판단하고, 관련성 높은 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용함. 전체 적용 대신 부분 채택으로 비용·리스크를 줄이는 접근.
  • 태그: 체리픽, 범위결정, 리스크관리

  • 🔧 [해결] 모델 역할에 따른 3단계 라우팅

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델을 라우팅하여 각 모델의 강점을 살김. 작업-모델 매핑으로 효율과 응답품질을 개선.
  • 태그: 모델라우팅, 작업매핑, 효율성

  • ⚖️ [판단] 전체 도입 vs 부분 채택은 도메인 적합성으로 결정

  • 플랫폼 전체 도입 대신 도메인 적합성(코드 개발 전문성 여부)을 기준으로 필요한 기능만 선별해 채택하기로 함. 즉 '도메인 적합성'이 주요 의사결정 기준.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·성능 차이 관찰

  • 같은 세션에서 github-copilot/gpt-5-mini는 평균 레이턴시가 길고 호출 수가 적음, Claude Sonnet은 호출 많고 레이턴시 짧음 — 모델 선택이 비용(지연)과 호출 패턴에 영향.
  • 태그: 관찰, 성능측정, 모델선택

  • 🔄 [개선] 에이전트 확장으로 역할 분리

  • 에이전트 수를 8개에서 12개로 늘려 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 세분화함. 단일 에이전트의 책임을 줄여 전문화 및 병렬 처리 향상.
  • 태그: 아키텍처개선, 전문화, 스케일업

  • 📚 [교훈] 초기 누락 항목 빠르게 정정해야 함

  • 초기 리포트에서 VG 누락이 발견되어 정정하며, 검증 절차(섀클 체크리스트 또는 종목 크로스체크)를 도입할 필요가 드러남—요약: 빠른 정정은 신뢰 회복에 중요.
  • 태그: 실수교훈, 검증절차, 정정

  • 🔧 [해결] 로컬 도구로 모델 오버라이드 지원 확인

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 오버라이드 지원을 확인해, 공식 공개 여부와 관계없이 로컬 환경에서 모델 전환이 가능하도록 활용함.
  • 태그: 도구활용, 운영편의, 모델오버라이드

  • 💡 [발견] 로그·통계로 운영 안정성 평가 가능

  • 세션별 총 호출·성공률·프롬프트·응답량·에러 수를 집계하여 모델·세션 안정성과 비용(프롬프트량 대비 응답량)을 평가할 수 있음을 확인함.
  • 태그: 운영관찰, 메트릭, 안정성

  • 🔄 [개선] 체리픽된 패턴을 자동화 스크립트로 전환

  • 사례로 추출된 learner 패턴과 preemptive-compaction을 스크립트(예: scripts/session_learner.py, preemptive-compaction.sh)로 구현해 수작업 의존도를 낮추고 재현 가능하게 만듦.
  • 태그: 자동화, 재현성, 스크립팅

  • 📚 [교훈] 모델 공개 정보는 빠르게 변하니 재확인 루틴 필요

  • gpt-5.4 mini 공개 여부가 세션 중 정정되는 일이 발생함. 외부 문서 기준 정보는 반복 확인(버전 태그·공식 문서 재검증)하는 루틴을 도입해야 함.
  • 태그: 정보검증, 운영절차, 버전관리

2026-03-19

  • 🔧 [해결] 특정 기능은 전체 도입 대신 체리픽으로 해결
  • OMC 전체 도입은 도메인 불일치로 비효율적이라는 판단하에, 전체를 도입하지 않고 ‘모델별 에이전트 분리’, ‘learner 패턴 추출’, ‘preemptive-compaction’ 등 핵심 3가지만 선택해 적용함. 범용 방식보다 도메인 적합성 높은 부분만 골라 적용하는 접근.
  • 태그: 적용범위, 체리픽, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할·목적 기준으로 분리

  • 에이전트 라우팅을 '심층 판단(Opus)', '분석·디버깅(Sonnet)', '빠른 실행(Haiku)'처럼 모델의 강점과 역할(심층성 vs 속도 vs 디버깅)에 따라 3단계로 분리하여 배치하기로 결정함. 선택 기준은 처리 목적과 레이턴시·정밀도 요구.
  • 태그: 모델선택, 라우팅, 성능-목적 매칭

  • 💡 [발견] 모델별 호출 통계로 성능·비용 판단 가능

  • 세션별로 모델 호출 수, 성공률, 평균 레이턴시를 기록해 특정 모델이 빠르고 안정적인지(예: cliproxy/claude-sonnet-4-6 낮은 레이턴시) 혹은 실패율이 높은지(특정 gpt-5.4 호출 실패)를 파악함. 이를 통해 라우팅·대체 모델 결정 근거 확보.
  • 태그: 관찰, 측정기반, 운영지표

  • 🔧 [해결] 로컬 툴의 모델 오버라이드로 빠른 대응

  • Codex CLI의 -m/--model 옵션 및 config.toml 모델 키로 로컬에서 모델을 오버라이드할 수 있음을 확인해, 공개 여부나 원격 정책과 상관없이 즉시 실험·전환 가능한 운영 방식을 활용함.
  • 태그: 도구활용, 유연성, 운영효율

  • 🔄 [개선] 구현 단계에서 에이전트 수평 확장으로 역할 분화

  • 기존 8개 에이전트에서 12개로 확장하여 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 기능별·심도별 에이전트를 추가함으로써 책임 분리와 전문성 강화로 워크플로우 효율을 개선함.
  • 태그: 아키텍처, 스케일링, 책임분리

  • 📚 [교훈] 문서·공식 출처 확인의 중요성 — 초기 정보 정정 발생

  • 08:15에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 OpenAI 공식 문서에서 공개 표기를 확인해 정정함. 외부 정보에 대해선 즉시 결론을 내리기보다 소스 크로스체크 후 기록할 것.
  • 태그: 정보검증, 절차, 정정로그

  • 🔧 [해결] 긴급 주제(시장·종목 누락)에 대해 즉시 보완 답변 제공

  • 사용자 질문으로 특정 종목(VG)이 누락된 것이 드러나자, 빠르게 추가 분석(섹터 맵, 주요 수혜주, 지표 요약)으로 누락 문제를 보완하고 사과·정정 정보를 제공함. 실사용자 피드백을 즉시 반영하는 운영 패턴.
  • 태그: 고객응대, 빠른보완, 품질관리

  • ⚖️ [판단] 도메인 적합성 우선의 도입 결정

  • OMC 같은 범용/대규모 도구는 코드 개발 전문 도메인에는 적합하지 않다고 판단하여 부분 적용으로 결론. 도입 여부는 도메인 적합성(전문성 매칭)을 1차 기준으로 판단함.
  • 태그: 도입기준, 도메인적합성

2026-03-19

  • 🔧 [해결] 복잡한 전체 도입 대신 핵심만 체리픽
  • OMC를 전체 도입하지 않고 도메인에 맞는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 작업 부담과 비적합 리스크를 줄였다.
  • 태그: 범위관리, 리스크감소, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단·분석·빠른 실행 등 역할별로 모델 그룹(Opus/ Sonnet/ Haiku)을 나눠 라우팅하는 기준을 적용해 처리 지연과 비용을 최적화했다.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 도메인 전문성과 도구 범위 불일치

  • OMC 전체 도입은 코드 개발 전문 영역과 맞지 않아 불필요하다는 판단이 나왔고, 도메인 적합성이 의사결정의 핵심 변수로 작용함을 확인했다.
  • 태그: 도메인적합성, 의사결정

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등을 추가해 책임 분리와 전문화로 유지·디버깅 효율을 높였다.
  • 태그: 아키텍처, 스케일링, 전문화

  • 📚 [교훈] 빠른 확인 대신 교차검증 필요

  • 초기에는 gpt-5.4 mini 공개 여부에 관해 상반된 기록이 있었고, 정정 과정에서 공식 문서 재확인으로 오류를 바로잡음 — 외부 문서 확인을 사전 의무화할 것.
  • 태그: 검증절차, 문서확인, 실수교정

  • 🔧 [해결] 프롬프트/모델 통계로 운영 판단

  • 총 호출·성공률·프롬프트·응답량·에러 수 등 지표를 수집해 모델별 성능(호출수·레이턴시 등)을 비교하고 운영·재배치를 결정했다.
  • 태그: 모니터링, 지표기반결정, 운영

  • 💡 [발견] 특정 모델은 특정 작업에 레이턴시·성공률 이점

  • cliproxy/claude-sonnet-4-6은 호출 수가 많고 평균 레이턴시가 낮아 분석·디버깅 업무에 적합했고, github-copilot/gpt-5-mini는 레이턴시가 길지만 성공률이 높아 다른 용도로 분리 운영됨을 확인했다.
  • 태그: 성능프로파일링, 모델적합성

2026-03-19

  • 🔧 [해결] 필요없는 전체 도입 대신 체리픽으로 집중 도입
  • OMC 전체 도입이 도메인에 맞지 않을 때는 전체를 적용하지 않고, 코드 개발에 맞는 핵심 3가지를 선별(cherry-pick)해 적용하여 비용과 복잡도를 줄임. 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction만 채택.
  • 태그: 도입전략, 범위절제, 효율

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 나눈다

  • 에이전트/모델을 '심층 판단(Opus)', '분석·디버깅(Sonnet)', '빠른 실행(Haiku)'처럼 역할과 레이턴시 요구에 따라 3단계로 라우팅해 판단 기준으로 사용함. 응답 속도·정밀도·업무성격을 기준으로 모델을 배치.
  • 태그: 모델선택, 운영정책

  • 💡 [발견] 프롬프트·응답 볼륨과 모델별 레이턴시 차이 존재

  • 같은 세션 내에서 모델별 호출 수와 평균 레이턴시가 크게 다름(예: copilot은 레이턴시 높음, sonnet은 낮음). 대량 호출 환경에서는 레이턴시 특성을 고려해 모델 분배가 필요함.
  • 태그: 성능관찰, 모델운영

  • 🔄 [개선] 에이전트 확장 시 역할 세분화로 용량 확보

  • 에이전트를 단순 증설(8→12)할 때 단순 수 증가 대신 역할을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)하여 각 에이전트의 책임을 명확히 하고 확장 효과를 극대화함.
  • 태그: 스케일링, 아키텍처

  • 📚 [교훈] 초기 생략은 사용자 불만을 초래하므로 빠른 정정 필요

  • 대화에서 종목 누락(예: VG)을 발견했을 때 즉시 사과하고 보완 설명으로 정정함. 사용자 신뢰 회복을 위해 빠른 인정+보완이 중요하다는 교훈.
  • 태그: 사용자응대, 신뢰회복

  • 🔧 [해결] 로컬 CLI·설정으로 모델 오버라이드 해결

  • 공식 문서 확인 전후에 Codex CLI의 -m/--model 옵션과 config.toml의 model 키를 사용해 로컬에서 모델을 변경 가능한 방법을 활용함. 문서 불확실성 시 로컬 설정으로 우회 적용.
  • 태그: 운영팁, 문서불확실성

  • 💡 [발견] 세션 통계로 안정성·오류 패턴 파악 가능

  • 총 호출·성공률·프롬프트/응답 총량·에러 수 같은 지표를 정기적으로 수집하면 특정 모델의 실패율·지연이나 전체 안정성 추이를 빠르게 파악할 수 있음.
  • 태그: 모니터링, 지표

  • 🔄 [개선] 체계적 파일·후크 생성으로 반복작업 자동화

  • 세션에서 필요한 기능(예: vault-inspector, session_learner, preemptive-compaction)을 파일과 스크립트로 생성해 다음 작업에서 반복 수동 조치를 줄임. 즉, 수작업→스크립트화의 전환.
  • 태그: 자동화, 워크플로우

2026-03-19

  • 🔧 [해결] 복잡한 기능은 필요한 부분만 체리픽해 도입한다
  • OMC 전체 도입이 도메인에 맞지 않아 전체 적용을 포기하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 핵심 3가지를 선별해 구현함으로써 비용과 복잡도를 줄였다.
  • 태그: 아키텍처, 단계적도입, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할별 성격으로 결정한다

  • 세부 판단·분석·신속실행 등 역할에 맞춰 Opus/Sonnet/Haiku로 라우팅(심층 판단 2개, 분석·디버깅 4개, 빠른 실행 6개)하기로 결정—성능/지연/책임 분리 기준으로 모델을 배치.
  • 태그: 모델선정, 역할기반, 성능

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원함을 확인했음(초기 문서 확인 오류를 정정함).
  • 태그: 툴링, 설정, 검증

  • 💡 [발견] 모델별 호출/레이턴시 차이가 작업 설계에 영향

  • 세션 통계에서 github-copilot/gpt-5-mini는 레이턴시가 높고 호출 수는 적은 반면 claude-sonnet 계열은 호출 많고 레이턴시 낮음 → 비용·지연·스루풋 관점에서 라우팅과 배치 전략에 반영됨.
  • 태그: 관찰, 성능계측, 비용효율

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화해 추가한다

  • 기존 에이전트에서 필요한 기능을 파악해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등으로 확장하여 책임을 명확히 분리함(확장 전→확장 후 워크플로우 개선).
  • 태그: 조직화, 책임분리, 스케일링

  • 📚 [교훈] 문서 확인은 초안과 정정 가능성을 염두에 둔다

  • 08:14에 gpt-5.4 mini 공개 여부를 확인하지 못했다가 08:16에 정정함 → 외부 공식 문서 확인 시 초기 판단을 바로 확정하지 않고 재검증 프로세스 필요.
  • 태그: 검증절차, 운영리스크

  • 🔧 [해결] 전문성 불일치 시 전면 도입 대신 부분 적용

  • 도메인 적합성 부족(코드 개발 전문)으로 OMC 전면 도입을 피하고, 실제 가치를 낼 소수 기능만 골라 적용해 실패 위험을 줄임.
  • 태그: 리스크관리, 시범적용

  • ⚖️ [판단] 데이터·사건 대응은 섹터별 수혜 판단으로 정리한다

  • 대화에서 전쟁 관련 섹터(방산, 에너지, 금, 사이버보안, 해운, 비료 등)를 정리해 투자·분석 우선순위를 섹터별 영향도로 판단함—사건→수혜섹터→대표종목 흐름을 기준으로 의사결정.
  • 태그: 도메인지식, 우선순위결정, 투자분석

2026-03-19

  • ⚖️ [판단] 도메인 불일치면 전체 도입 대신 핵심만 체리픽
  • OMC 전체 도입은 도메인 적합성(코드 개발 전문성 여부)을 기준으로 보류하고, 도메인에 맞는 3가지 기능만 선별해(cherry-pick) 도입함으로써 비용과 복잡도를 줄였다.
  • 태그: 의사결정, 도메인적합성, 리스크절감

  • 🔧 [해결] 복잡한 모델 사용은 모델별 에이전트 분리로 관리

  • 심층 판단·분석·빠른 실행 등 서로 다른 역할 요구를 Opus/Sonnet/Haiku 같은 모델 라우팅으로 분리하고, 각 역할에 맞는 에이전트를 배치해 책임과 지연을 낮춤.
  • 태그: 아키텍처, 모델라우팅, 운영효율

  • 🔧 [해결] 프롬프트·응답 비용 통제는 learner 패턴 추출과 preemptive-compaction

  • 세션에서 prompt/response량이 큰 경우 learner로 반복패턴을 추출하고 preemptive-compaction 훅을 통해 프롬프트를 사전 압축해 호출량·비용을 줄임.
  • 태그: 비용절감, 프롬프트관리, 자동화

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 모델 변경을 지원함을 확인하여, 공식 공개 여부와 무관하게 로컬에서 모델 전환이 가능하다는 사실을 발견.
  • 태그: 툴링, 운영지식

  • 📚 [교훈] 공식 문서 확인 후 결론 정정하기

  • 초기엔 gpt-5.4 mini 공개 여부를 부정했다가 공식 Models 문서를 재확인해 정정함. 중요한 사실은 문서 검증 후 확정해야 혼선과 잘못된 의사결정을 피할 수 있음.
  • 태그: 검증, 문서확인, 정정절차

  • 🔧 [해결] 에이전트 확장 시 역할별 세분화로 용량 확장

  • 에이전트를 8개에서 12개로 늘리며 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 기능을 역할별로 세분화해 확장성과 유지보수성을 개선.
  • 태그: 스케일링, 역할분리

  • 📚 [교훈] 응답 누락에 대해 즉시 사과하고 보완 제공

  • 사용자 지적(VG 누락)에 대해 즉시 사과하고 빠르게 누락 항목(Venture Global)과 상세 정보를 보완해 신뢰 회복과 고객 만족을 유지함.
  • 태그: 커뮤니케이션, 고객응대

  • 🔄 [개선] LLM 호출 통계 모니터링 → 모델 선택과 운영 조정

  • 호출 수·성공률·지연·에러를 세부 집계해 모델별 성능을 비교(예: sonnet 낮은 레이턴시), 그 결과로 모델 라우팅과 호출 분배 정책을 조정함.
  • 태그: 모니터링, 운영개선, 성능측정

2026-03-19

  • 🔧 [해결] 문제별 모델 분리로 처리 효율 개선
  • 복합 작업을 단일 모델에 맡기지 않고 역할별로 모델/에이전트를 분리(Opus/ Sonnet/ Haiku 또는 모델별 에이전트 분리)하여 심층 판단·분석·빠른 실행을 각각 최적화함. 호출 실패나 레이턴시를 줄이고 책임 경계를 명확히 함.
  • 태그: 아키텍처, 모델라우팅, 효율

  • 🔧 [해결] 체리픽으로 범위 축소 후 핵심 기능만 도입

  • 전체 OMC 도입 대신 도메인 적합성에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 우선 구현함으로써 낭비를 줄이고 빠른 가치 제공을 달성함.
  • 태그: 범위관리, 우선순위, MVP

  • ⚖️ [판단] 도메인 적합성으로 기술 전체 도입 여부 결정

  • 새 방식(예: OMC)을 전면 도입할지 여부는 조직의 주요 역량과 도메인 적합성 기준으로 판단—코드 개발 전문이면 전체 도입은 과한 것으로 보고 핵심만 채택함.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 호출·레이턴시·성공률 차이가 실무 라우팅 기준이 된다

  • 세션 통계에서 모델별 호출 수·평균 레이턴시·성공률을 확인해, 레이턴시가 낮고 안정적인 모델은 분석·디버깅에, 응답 품질이 높은 모델은 심층 판단에 배치하는 패턴을 확인함.
  • 태그: 메트릭기반, 모델선택

  • 🔄 [개선] preemptive-compaction으로 입력/프롬프트 효율화

  • 프롬프트 총량·응답 총량이 큰 작업에서는 선행 압축(preemptive-compaction)으로 불필요 문맥을 줄여 호출 비용과 레이턴시를 낮추는 흐름으로 워크플로우를 개선함.
  • 태그: 비용절감, 프롬프트공학

  • 📚 [교훈] 정정·추가 검증을 빠르게 기록하라

  • 초기 판단(예: gpt-5.4 mini 공개 여부)이 바뀌면 즉시 정정 기록을 남겨 혼선을 줄임. 로그에 정정 타임스탬프와 근거(공식 문서 링크 등)를 남기는 행동이 필요함.
  • 태그: 운영절차, 투명성

  • 🔧 [해결] 에이전트 확장으로 역할 분담 세분화

  • 에러 체크·리포트 작성·파이프라인 디버깅 등 기능별 에이전트를 늘려(8→12) 책임과 태스크를 분리함으로써 병렬 처리 능력과 특화된 처리를 확보함.
  • 태그: 조직화, 스케일링

  • 💡 [발견] 데이터 누적 통계가 운영 개선 의사결정에 유용함

  • LLM 호출 통계(총 호출·성공률·프롬프트량·에러수)를 주기적으로 수집하면 어떤 모델·파이프라인이 병목인지, 어떤 개선이 우선인지 판단하는 근거로 활용할 수 있음.
  • 태그: 관찰성, 데이터기반결정

  • 📚 [교훈] 응답 누락·편향에 대해 사후 보완 프로세스 필요

  • 대화에서 특정 종목(VG)을 빠뜨림 → 사용자의 지적으로 보완. 초기 검토 리스트·체크리스트를 만들어 자동으로 확인하지 않은 항목을 탐지하고 보완하도록 프로세스를 추가해야 함.
  • 태그: 품질관리, 체크리스트

2026-03-19

  • 🔧 [해결] 체리픽으로 기능만 도입
  • 전체 OMC 도입 대신 도메인 적합성에 따라 핵심 3가지를 선택해 체리픽으로 구현함(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 범위 줄여 빠른 가치 산출.
  • 태그: 범위관리, 빠른가치

  • 🔧 [해결] 모델별 라우팅으로 역할 분리

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 모델 라우팅을 적용해 각 모델의 강점을 살림.
  • 태그: 아키텍처, 모델선택

  • ⚖️ [판단] 전체 도입 vs 선택적 체리픽

  • 새 시스템은 도메인 적합성을 기준으로 전체 도입이 아니라 핵심 기능만 선별 도입하는 쪽을 선택함(전문성 불일치 시 축소 적용).
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 프롬프트·응답 볼륨과 모델 성능 분리

  • 세션 통계에서 프롬프트 문자량과 응답량이 크더라도 모델별 호출 성공률과 레이턴시가 달라, 비용·지연 관리는 모델별 특성에 맞춰야 함이 확인됨.
  • 태그: 관측, 성능계측

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 책임을 분리하고 전문화함.
  • 태그: 조직구조, 책임분리

  • 📚 [교훈] 문서 확인 후 정정 프로세스 필요

  • 08:14에 공개 불가로 판단했다가 08:16에 공식 문서에서 공개 확인되어 정정됨 → 외부 문서 확인 시 2중 체크(출처+타임스탬프) 절차 필요.
  • 태그: 검증절차, 정보정합성

  • 💡 [발견] 로컬 도구는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키로 모델 변경을 지원함을 확인해 로컬 환경에서 모델 전환이 가능함.
  • 태그: 도구기능, 운영편의

  • 🔧 [해결] 전문성 미스매치일 때 최소 실행 단위로 진행

  • 도메인이 맞지 않는 경우 전체 프레임워크를 도입하기보다, 개발 전문 영역에 맞는 기능만 최소 단위로 적용해 실패 위험과 작업 낭비를 줄임.
  • 태그: 리스크관리, 실행전략

2026-03-19

  • 🔧 [해결] 대규모 도입 대신 핵심만 체리픽해서 적용
  • 전체 OMC 도입이 도메인에 맞지 않을 때, 관련성이 높은 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현해 문제를 최소화하고 효과를 확보함.
  • 태그: 체리픽, 범위축소, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할과 지연시간으로 결정

  • 복수 모델을 운영할 때 '심층 판단'·'분석·디버깅'·'빠른 실행' 같은 역할별로 Opus/Sonnet/Haiku로 나눠 배치해 각 모델의 강점(정밀도 vs 속도)에 따라 라우팅하도록 결정함.
  • 태그: 모델선택, 역할기반, 성능트레이드오프

  • 💡 [발견] CLI/로컬 툴은 모델 오버라이드 지원 확인 필요

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 오버라이드를 지원함을 확인—로컬 환경에서 모델 전환은 문서 확인으로 빠르게 해결 가능함.
  • 태그: 도구확인, 운영편의성

  • 🔄 [개선] 대체 모델별 에이전트 분리로 병렬 책임 분담

  • 모든 책임을 단일 에이전트에 몰아주던 기존 방식에서, 모델별로 에이전트를 분리(analyst, report-writer, pipeline-debugger 등)해 역할을 좁히고 확장성을 개선함.
  • 태그: 아키텍처, 에이전트분리, 확장성

  • 📚 [교훈] 응답 누락 시 빠르게 인정하고 보완 제공

  • 대화에서 특정 종목(VG)을 누락한 실수를 사용자 지적으로 바로 인정하고 상세 보완(종목 자료·수치 제공)으로 신뢰를 회복한 사례—누락 발견 시 즉시 정정하고 추가정보를 제공하라.
  • 태그: 커뮤니케이션, 오류복구, 신뢰회복

  • 💡 [발견] 운영 지표로 시스템 안정성 판단

  • LLM 호출 통계(총 호출, 성공률, 프롬프트·응답 총량, 에러 수, 모델별 레이턴시)를 주기적으로 수집해 호출 품질과 병목(예: 고레이턴시 모델)을 파악함.
  • 태그: 모니터링, 운영지표, 성능진단

  • ⚖️ [판단] 부분 도입 선택 기준은 '도메인 적합성'

  • 새 프레임워크(OMC)를 도입할지 결정할 때 코드 개발 전문성과 도메인 적합성이 낮으면 전체 도입 대신 관련 기능만 선별 적용하기로 판단함.
  • 태그: 도입결정, 도메인적합성

  • 🔧 [해결] 모델별 호출 분배로 성능 최적화

  • 레이턴시가 낮고 안정적인 모델(claude-sonnet 등)은 다수 호출에, 레이턴시가 높거나 비용 큰 모델은 심층 판단에 배치해 전체 시스템 응답성과 비용을 최적화함.
  • 태그: 성능최적화, 비용관리, 모델분배

  • 📚 [교훈] 의사결정 로그와 파일 변경을 함께 기록하라

  • 의사결정 타임스탬프와 수정/생성 파일 목록을 동시에 남겨 나중에 변경 원인과 구현 산출물을 추적하기 쉬웠음—결정·수정 쌍으로 기록하는 워크플로우 권장.
  • 태그: 기록습관, 추적가능성, 운영절차

  • 🔄 [개선] 작업 단위를 작게 늘려 단계적 확장

  • 에이전트 수를 한꺼번에 늘리기보다(8→12) 역할을 세분화해 필요한 기능을 단계적으로 추가함으로써 리스크를 줄이고 검증 가능하게 확장함.
  • 태그: 점진적확장, 작업분할, 리스크완화

2026-03-19

  • 🔧 [해결] 큰 시스템 전면 도입 대신 핵심 기능만 체리픽해 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단해, 코드 개발에 맞는 3개 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택적으로 적용해 문제를 해결함. 전체 도입 리스크를 줄이고 가치가 큰 부분만 빠르게 배포하는 접근.
  • 태그: 체리픽, 리스크절감, 점진배포

  • ⚖️ [판단] 모델 선택은 역할과 지연성 기준으로 라우팅

  • 심층 판단 작업은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku로 3단계 모델 라우팅을 결정. 작업의 '판단 난이도/정밀도'와 '응답속도'를 기준으로 모델을 분배함.
  • 태그: 모델라우팅, 성능-정밀도트레이드오프

  • 💡 [발견] 로컬 Codex는 CLI 옵션으로 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델을 변경할 수 있음을 확인함. 운영 환경에서 모델 전환이 가능하다는 사실을 발견.
  • 태그: 도구기능, 운영

  • 🔧 [해결] 에이전트 수평 확장으로 역할 분리

  • 기능별 에이전트를 8개에서 12개로 확장하여 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 분리함으로써 책임 분담과 전문화를 통해 작업 효율과 디버깅 능력을 향상시킴.
  • 태그: 아키텍처, 에이전트확장, 역할분리

  • 🔄 [개선] 사전압축(preemptive-compaction) 훅 도입

  • preemptive-compaction 스크립트를 훅으로 추가해 프롬프트/세션 크기 관리를 사전에 자동화함. 대화 길이·프롬프트 비용 관리 워크플로우를 기존 수동 관리에서 자동 사전처리로 개선.
  • 태그: 프롬프트관리, 자동화, 비용절감

  • 📚 [교훈] 문서 기반 확인을 여러 번 교차검증하라

  • 초기에 'gpt-5.4 mini 공개 확인 불가'로 기록했다가 바로 정정해 공개 표기 확인함. 외부 문서나 공지사항은 단일 확인에 의존하지 말고 교차검증(공식 문서 다시 확인, CLI 기능 점검 등)을 통해 판단해야 함.
  • 태그: 검증, 절차, 실수방지

  • 💡 [발견] LLM 호출 통계로 모델 효율성 비교 가능

  • 모델별 호출 수·성공률·평균 레이턴시를 기록하여 라우팅 및 비용·효율성 판단에 활용함(예: sonnet 레이턴시 낮음 → 분석 작업에 적합). 운영 의사결정에 계량지표를 사용한 점을 발견.
  • 태그: 모니터링, 계량의사결정

  • ⚖️ [판단] 전면 적용보다 도메인 적합성 우선

  • OMC 전면 도입 대신 도메인 적합성(코드개발 vs 일반 도메인)을 우선 기준으로 삼아 적용 범위를 결정함. 새로운 플랫폼·방법론은 항상 도메인 적합성 검토 후 적용.
  • 태그: 도메인검증, 적용범위결정

2026-03-19

  • 🔧 [해결] 체리픽 방식으로 필요한 기능만 도입
  • OMC 전체 도입이 도메인에 맞지 않을 때 전체 적용 대신 '3가지 핵심 기능만 체리픽'하여 개발 비용과 복잡도 절감(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 체리픽, 범위축소, 비용절감

  • 🔧 [해결] 모델 특성별 라우팅으로 역할 분담

  • 모델 성능·지연·역할에 따라 트래픽을 분리(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행)해 효율과 응답품질을 최적화.
  • 태그: 모델라우팅, 성능최적화

  • ⚖️ [판단] 전체 도입 vs 선택적 도입 판단 기준: 도메인 적합성

  • 신기술·아키텍처를 전면 도입할지 결정할 때 '우리 도메인에 맞는가'를 우선 기준으로 삼고, 부적합하면 일부 기능만 선별 적용한다.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 로컬 도구는 모델 오버라이드 지원

  • Codex CLI는 -m/--model 플래그와 config.toml의 model 키로 로컬에서 모델을 변경할 수 있음(문서 확인으로 검증).
  • 태그: 도구행동, 검증

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기능별 에이전트를 추가(8→12)해 책임을 분리하고 전문화된 에이전트가 각 기능을 맡도록 개선함(예: analyst, report-writer, pipeline-debugger-deep).
  • 태그: 아키텍처, 에이전트

  • 📚 [교훈] 초기 요약/응답 누락은 즉각 사과하고 보완 제공

  • 대화에서 특정 종목(VG)을 누락했을 때 즉시 사과하고 누락된 항목을 포함한 보완 자료를 제공하여 신뢰 회복—응답 완성도와 정정 절차를 표준화할 필요성.
  • 태그: 커뮤니케이션, 신뢰회복

  • 💡 [발견] LLM 호출 통계는 모델 선택·운영 판단의 핵심 근거

  • 총 호출·성공률·프롬프트/응답량·평균 레이턴시·에러 수 같은 지표로 어떤 모델을 어느 용도로 쓸지 결정(예: 지연 낮은 Sonnet을 분석용으로 선호).
  • 태그: 모니터링, 운영결정

  • 🔄 [개선] 정정 로그를 빠르게 남겨 의사결정 일관성 확보

  • 문서화된 정정(예: 08:15→08:16 정정)을 즉시 기록해 변경된 사실과 근거를 추적하면 혼선 감소 및 후속 판단 근거로 사용 가능.
  • 태그: 문서화, 변경관리

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 전체 도입 대신 핵심만 체리픽
  • OMC(대체 프레임워크)가 전체 도입하기에 도메인이 맞지 않을 때, 전면 적용 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 3가지만 선별 적용해 리스크와 비용을 줄였다. 즉 '전면적 도입 → 선택적 체리픽'으로 문제를 해결함.
  • 태그: 도입전략, 리스크관리, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할별 중심으로 나눈다

  • 에이전트 역할과 처리 특성(심층 판단, 분석·디버깅, 빠른 실행)에 따라 모델을 분리(예: Opus=심층, Sonnet=분석, Haiku=빠른 실행)해서 라우팅 결정을 내림. 성능(레이턴시)과 업무 성격을 기준으로 모델-에이전트 매핑을 판단함.
  • 태그: 모델라우팅, 운영결정

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리·전문화

  • 필요 기능을 추가할 때 기존 에이전트를 무작정 늘리기보다 역할을 세분화하여 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등으로 확장해 책임과 기능을 명확히 분리함. 결과적으로 병목 완화와 전문성 향상 기대.
  • 태그: 아키텍처, 운영개선, 스케일링

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml의 model 키를 통해 로컬 환경에서 모델을 -m/--model로 오버라이드할 수 있음을 확인. 즉 공용 문서에 의존하지 않고 로컬 설정으로 모델 전환이 가능함.
  • 태그: 도구, 모델전환

  • 📚 [교훈] 문서 확인 오류는 빠른 정정 프로세스로 커버

  • 08:15에 gpt-5.4 mini 비공개로 판정했다가 08:16에 공식 문서에 공개 표기된 것을 확인해 정정함. 외부 문서 해석 오류 발생 시 즉시 재검증하고 기록해 혼선 최소화해야 함.
  • 태그: 검증, 정정, 프로세스

  • 🔧 [해결] 프롬프트/응답 통계로 LLM 품질 모니터링

  • 총 호출, 성공률, 프롬프트·응답 총량, 모델별 호출·레이턴시를 정기적으로 기록해 이상(에러, 레이턴시 편차)을 감지하고 모델 선택·라우팅 정책에 반영함.
  • 태그: 모니터링, 품질관리, LLM운영

  • 💡 [발견] 업데이트된 사실은 의사결정 로그에 타임스탬프와 함께 남긴다

  • 세부 수정(예: 모델 공개 여부 정정)은 어떤 시점에 누가/무엇을 바꿨는지 의사결정 로그에 명확히 기록되어 후속 검토와 책임 추적이 용이함.
  • 태그: 운영관행, 감사

  • 📚 [교훈] 응답 누락(종목 빠뜨림)은 빠르게 보완하고 사과·보완정보 제공

  • 대화에서 Venture Global(VG)을 빠뜨린 실수가 있었으나, 사용자의 지적 후 즉시 보완하고 상세 종목·수치로 응답해 신뢰 회복 시도함. 사용자 피드백 수용→즉시 보완이 효과적.
  • 태그: 고객대응, 품질관리, 피드백

2026-03-19

  • 🔧 [해결] 도메인 부적합한 전체 도입 대신 체리픽으로 필요한 기능만 적용
  • OMC를 전체 도입하려다 도메인 부적합 판단으로, 핵심 가치가 높은 세 가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 적용해 비용과 복잡도를 낮추고 효과는 유지함.
  • 태그: 의사결정, 범위선정, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할별로 단계화하여 할당

  • 심층 판단(Opus) / 분석·디버깅(Sonnet) / 빠른 실행(Haiku)으로 모델 역할을 분리해 각 모델의 강점에 맞춘 라우팅 정책을 채택함 — 판단 기준은 처리 속도 vs 판단 깊이.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 프롬프트/응답 비율이 모델별 비용·성능 시그널을 제공함

  • 세션 통계에서 모델별 호출·성공률·레이턴시·프롬프트·응답량을 비교해 어떤 모델을 어느 용도로 쓰는지 근거로 삼음(예: Sonnet은 호출 많고 레이턴시 낮음 → 분석·디버깅에 적합).
  • 태그: 관찰, 모니터링, 성능지표

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 효율화

  • 기존 8개 에이전트를 12개로 늘려 전문화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)를 진행함으로써 책임 분리와 작업 병렬화를 개선함.
  • 태그: 워크플로우, 스케일링, 책임분리

  • 📚 [교훈] 초기 누락(종목 누락)은 빠른 인정과 보완으로 신뢰 회복

  • VG 같은 주요 종목을 누락했을 때 즉시 사과하고 빠르게 보완 답변을 제공함으로써 사용자 신뢰를 회복할 수 있음 — 실수 발생시 투명한 정정이 우선.
  • 태그: 커뮤니케이션, 운영절차

  • 🔧 [해결] 로컬 CLI와 문서 동기화로 모델 오버라이드 불확실성 해소

  • Codex CLI의 -m/--model 옵션과 config.toml 모델 키 지원 여부를 문서와 로컬 확인을 통해 검증해 모델 변경 가능성을 확정함(문서상 공개 여부 혼선 발생 시 직접 확인 후 정정).
  • 태그: 검증, 도구운영

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽(선택적 도입)
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체 적용 대신 '가치 있는 부분 3가지만 골라(cherry-pick)' 적용하여 개발 효율을 유지하고 불필요한 작업을 줄임. 즉, 범용 솔루션을 무조건 도입하기보다 도메인 적합성 기준으로 핵심 기능만 선택 적용한다.
  • 태그: 도입전략, 범위통제, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 복수 모델을 운영할 때 '심층 판단 / 분석·디버깅 / 빠른 실행'처럼 역할(역할별 요구 성능·지연·비용)에 따라 모델 라우팅을 3단계로 설계하면 효율과 응답품질을 동시에 맞출 수 있다.
  • 태그: 모델운영, 아키텍처, 성능관리

  • 💡 [발견] 모델별 호출-지연-성공률 패턴 관찰

  • 세션 통계에서 특정 모델(예: claude-sonnet-4-6)은 호출 수는 많지만 평균 레이턴시가 낮고 안정적이며, 다른 모델은 호출은 적지만 실패/0% 성공률을 보이는 경우가 있어 모델 선택은 호출량뿐 아니라 성공률·레이턴시 지표를 함께 봐야 함을 확인.
  • 태그: 모니터링, 지표해석, 운영통찰

  • 🔄 [개선] 에이전트 확장 시 역할 세분화로 책임 분리

  • 단순히 에이전트 수를 늘리기보다 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등으로 역할을 명확히 분리해 각 에이전트가 담당하는 책임과 패턴을 좁히는 방식으로 확장하여 유지보수성과 전문성을 높임.
  • 태그: 조직설계, 에이전트운영, 책임분리

  • 🔧 [해결] 프롬프트·응답량·에러 통계로 운영 판단

  • LLM 호출 총량, 프롬프트 총량, 응답 총량, 에러 수 같은 정량 지표를 정기적으로 수집해 성공률·성능 문제를 빠르게 판단하고, 문제가 있으면 모델 오버라이드나 구성(config.toml, -m 옵션)으로 즉시 대응함.
  • 태그: 관찰계측, 운영절차, 대응정책

  • 📚 [교훈] 문서 확인 후 정정 기록 남기기

  • 처음에는 gpt-5.4-mini 공개 여부를 확인하지 못했다가 추가 확인으로 정정한 사례에서, 초기 판단을 바로치고 '정정 시각/사유'를 로그에 남기는 것이 투명성과 후속 추적에 중요함이 드러남.
  • 태그: 운영절차, 투명성, 로그보존

  • 💡 [발견] 도메인 전문성 부족은 도구 선택에 영향

  • OMC(일반적 프레임워크)가 코드 개발 전문 도메인과 맞지 않아 전체 도입을 보류한 사례는 '도메인 적합성'이 도구 도입 판단의 핵심 요소임을 보여줌. 즉, 기술적 유용성뿐 아니라 도메인 적합성 평가가 필요하다.
  • 태그: 도메인적합성, 도구선정

  • 🔄 [개선] preemptive-compaction 같은 훅으로 공간/성능 관리 자동화

  • 세션에서 preemptive-compaction 훅을 추가해 로그·자원 사용을 사전 정리하도록 한 것은 장기 운영에서 성능·스토리지 문제를 예방하는 워크플로우 개선 사례임.
  • 태그: 운영자동화, 성능관리, 스크립트

2026-03-19

  • 🔧 [해결] 도메인 미스매치일 때는 체리픽으로 핵심만 도입
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체를 적용하지 않고, 관련성 높은 3개 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 적용하여 개발 비용과 위험을 줄임.
  • 태그: 체리픽, 비용절감, 도메인적합성

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리해서 판단

  • 모델별로 역할(심층 판단/분석·디버깅/빠른 실행)을 기준으로 라우팅하면 응답 속도·정밀도·비용 트레이드오프를 명확히 관리할 수 있음(예: Opus=심층, Sonnet=분석, Haiku=빠른 실행).
  • 태그: 모델선정, 라우팅, 성능-비용

  • 💡 [발견] 사후정정이 발생하면 근거 문서와 로컬 확인을 함께 기록

  • 08:14의 '공개 확인 불가' → 08:16의 '공개 표기 확인'처럼 초기 판단과 정정이 발생할 때마다 근거(공식 문서, 로컬 설정 가능 여부)를 의사결정 로그에 남겨 투명성을 확보함.
  • 태그: 문서검증, 로깅, 투명성

  • 🔄 [개선] 에이전트 수평 확장과 역할 분화로 책임 분담

  • 에이전트를 8→12로 늘리고 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 분화하여 각 작업의 전담화를 통해 파이프라인 안정성과 처리량을 개선함.
  • 태그: 오케스트레이션, 스케일링, 역할분리

  • 📚 [교훈] 모델 공개/가용성 관련 정보는 공식 소스 직접 확인 필수

  • 초기에는 gpt-5.4 mini 공개 여부를 부정확하게 기록했다가 공식 문서 확인으로 정정함. 모델 가용성 판단은 반드시 공식 릴리스 노트나 권한 있는 문서로 확인해야 함.
  • 태그: 검증절차, 실수방지

  • 🔧 [해결] 프롬프트·호출 통계로 안정성·성능 문제 조기 탐지

  • 총 호출/성공률/프롬프트·응답량·에러 수 및 모델별 평균 레이턴시를 지속 집계하여 성능 저하·오류 패턴을 빠르게 식별하고 대응함.
  • 태그: 모니터링, 지표기반운영

  • 💡 [발견] 로컬 CLI·설정으로 모델 오버라이드가 가능함

  • Codex CLI의 -m/--model 옵션과 config.toml의 model 키를 통해 로컬에서 모델을 변경할 수 있어 공식 공개와 상관없이 실험적 전환이 가능함.
  • 태그: 설정관리, 유연성

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅으로 자원 관리 최적화

  • preemptive-compaction 스크립트를 훅으로 추가하여 세션·에이전트 운영 중 불필요한 데이터·메모리 사용을 줄이는 자동화로 안정성을 올림.
  • 태그: 운영자동화, 자원최적화

2026-03-19

  • 🔧 [해결] 도메인 불일치면 전체 도입 대신 체리픽
  • OMC를 전체 도입하지 않고 도메인 적합성 기준으로 '3가지 핵심 기능'만 체리픽하여 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 도메인 맞지 않을 때 범위 축소로 비용·복잡도 절감.
  • 태그: 범위관리, 체리픽, 비용절감

  • ⚖️ [판단] 도구 도입 여부는 '도메인 적합성'으로 결정

  • 새 방법론(예: OMC)을 도입할지 판정할 때 팀의 전문성과 도메인 적합성을 주요 기준으로 삼아 전체 도입 대신 선택적 적용을 결정한다.
  • 태그: 의사결정기준, 도메인적합성

  • 🔧 [해결] 모델 라우팅을 기능별 3단계로 분리

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델·에이전트를 역할별로 라우팅해 처리 효율과 응답 품질을 높임.
  • 태그: 아키텍처, 모델라우팅, 역할분리

  • 💡 [발견] 문서 확인 후 정정이 필요함을 자주 발견

  • 초기 상태(08:15)에서 공개 여부 불확실로 기록했으나 추가 확인 후(08:16) OpenAI 문서에 공개 표기가 있음을 확인해 기록을 정정함 — 검증 단계가 중요함을 시사.
  • 태그: 검증, 문서확인, 정정

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 역할을 추가해 책임과 기능을 분리함으로써 운영 효율을 개선.
  • 태그: 운영개선, 역할분화, 확장

  • 🔧 [해결] 성공률·프롬프트 등 LLM 호출 지표로 운영 판단

  • 총 호출·성공률·프롬프트 총량·응답 총량·에러 수 등 지표를 정기 집계하여 모델 성능과 안정성(예: 성공률 100%, 에러 0건)을 근거로 운영 결정을 내림.
  • 태그: 관측가능성, 메트릭, 모니터링

  • 📚 [교훈] 초기 판단 뒤 문서 재확인 루틴을 둬라

  • 초기 로그에서 '공개 확인 불가'로 기록했다가 문서 재확인으로 정정한 사례 — 외부 문서·공식 출처는 두 단계 이상 확인하는 루틴을 권장한다.
  • 태그: 교훈, 검증루틴, 문서신뢰도

  • 📚 [교훈] 체리픽·작게 시작 → 필요시 확장 패턴 유효

  • 전체 도입 대신 핵심만 먼저 체리픽하고, 효과가 검증되면 에이전트 확장 및 추가 기능 적용으로 이어진 워크플로우(작게 시작해서 점진 확장)가 안정적이었다.
  • 태그: 교훈, 점진적도입, 작게시작

  • ⚖️ [판단] 모델 오버라이드는 로컬 툴 설정으로 해결

  • Codex CLI에서 -m/--model 또는 config.toml의 model 키로 모델 오버라이드가 가능하므로 로컬 운영에서 모델 변경 이슈는 설정으로 처리함.
  • 태그: 운영결정, 툴설정, 모델관리

2026-03-19

  • 🔧 [해결] 도메인 불일치면 전체 도입 대신 체리픽
  • 프로젝트·도메인이 맞지 않을 때 전체 OMC 도입을 강행하지 않고, 도메인에 맞는 핵심 기능 3가지만 선별(cherry-pick)해 적용한다. 위험·비용을 낮추고 빠른 가시성 확보에 유리하다.
  • 태그: 리스크관리, 점진도입

  • 🔧 [해결] 모델 역할에 따른 3단계 라우팅

  • 작업 특성별로 모델을 라우팅(심층 판단 → Opus, 분석·디버깅 → Sonnet, 빠른 실행 → Haiku)하여 성능·지연·비용을 최적화한다. 모델 능력과 작업 요구를 매핑해 호출 효율을 높임.
  • 태그: 모델선택, 성능최적화

  • ⚖️ [판단] A vs B 비교는 '도메인 적합성' 우선 기준

  • 기술적으로 가능하더라도 도메인 적합성이 낮다면 확장 대신 제한적 적용을 선택한다는 판단 기준을 사용한다(예: OMC 전체 도입 불필요 판정).
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 프롬프트·응답량 대비 모델별 레이턴시 차이

  • 같은 작업에서 모델별 호출량은 비슷해도 평균 레이턴시가 크게 달라짐(예: copilot 높은 레이턴시, sonnet 낮음). 호출 계획에 레이턴시를 반영할 필요가 있음.
  • 태그: 모니터링, 성능관찰

  • 🔄 [개선] preemptive-compaction 훅으로 자원관리

  • 세션에서 preemptive-compaction 스크립트와 훅을 추가해 세션/에이전트 상태를 사전 정리하도록 변경함으로써 장기 실행 시 리소스 누수와 프롬프트 bloat를 줄임.
  • 태그: 운영자동화, 자원관리

  • 📚 [교훈] 초기 누락(종목 제외)은 빠르게 정정하고 사과

  • 분석·리포트에서 중요한 항목(VG 등)을 빠뜨렸다면 즉각 인정·정정하고 추가 정보를 제공하는 것이 신뢰 회복에 효과적임—작업 프로세스에 체크리스트 도입 필요.
  • 태그: 커뮤니케이션, 품질관리

  • 💡 [발견] 로컬 툴체인(config/CLI)로 모델 오버라이드 가능

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 로컬 모델 변경이 가능하다는 사실을 확인—공식 공개 시점과 로컬 지원 여부를 분리해 판단해야 함.
  • 태그: 툴체인, 운영지식

2026-03-19

  • 🔧 [해결] 특정 기능 과도적 도입 대신 체리픽 3가지 선정
  • OMC를 전체 도입하지 않고 도메인 적합성을 고려해 핵심 세 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 비용과 복잡도를 줄이고 속도를 확보함.
  • 태그: 체리픽, 범위결정, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리

  • 심층 판단·분석·빠른 실행 등 역할에 따라 모델을 나누어(Opus/Sonnet/Haiku) 라우팅하는 기준을 적용하면 각 모델의 강점을 살릴 수 있음.
  • 태그: 모델선택, 역할기반라우팅

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함 — 로컬 환경에서 모델 전환이 가능함.
  • 태그: 도구능력, 환경설정

  • 🔧 [해결] 에이전트 수평 확장으로 역할 분화

  • 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 책임을 분리하고 병렬 작업 능력을 높였음.
  • 태그: 아키텍처, 스케일링

  • 🔄 [개선] 프롬프트·모델 통계로 운영 피드백 적용

  • 총 호출·성공률·프롬프트/응답 문자 수 등 지표를 수집해 모델별 성능과 비용을 비교하고 운영 결정을 정교화함.
  • 태그: 관측가능성, 운영개선

  • 📚 [교훈] 초기 범용 도입은 도메인 불일치 위험

  • 도메인 적합성 없는 대규모 도입 시 낭비가 발생하므로 먼저 작은 핵심 기능을 선정해 검증 후 확대해야 함.
  • 태그: 범위관리, 검증우선

  • 💡 [발견] 세션 중 정보 정정 기록은 중요

  • 초기엔 gpt-5.4 mini 공개 불가로 기록했다가 정정해 공개 표기가 확인된 사례처럼 변경되는 사실은 즉시 의사결정 로그에 반영해야 신뢰를 유지함.
  • 태그: 변경관리, 투명성

  • 🔧 [해결] 빠진 항목은 별도 보완으로 대응

  • 대화에서 빠뜨린 종목(VG)을 사용자가 지적하면 즉시 보완 설명과 데이터(수익률, 재무지표)를 제공해 신뢰 회복과 완성도를 높임.
  • 태그: 피드백루프, 고객대응

2026-03-19

  • 🔧 [해결] 도메인 전체 도입 대신 핵심만 체리픽
  • OMC 전체를 도입하는 대신 도메인 적합성(코드 개발 전문성 없음)을 근거로 세 가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용하여 비용·복잡도를 줄임.
  • 태그: 범위선정, 비용절감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리

  • 모델을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할·강점 기준으로 라우팅해 작업 종류에 맞는 모델을 배정함 — 성능·레턴시와 작업 성격을 기준으로 판단.
  • 태그: 모델선택, 역할기반, 성능-레턴시

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 -m/--model 또는 model 키로 로컬에서 모델을 오버라이드할 수 있음을 확인함(현장 적용 가능성 발견).
  • 태그: 툴링, 모델관리

  • 💡 [발견] 공식 문서와 현장 상태가 변동할 수 있음

  • 같은 날 문서 확인 결과가 달라져(08:15 공개 불가 → 08:16 공개 표기 확인) 문서·공식표기가 빠르게 변경될 수 있음을 확인함 — 의사결정 시 최신 확인 필요.
  • 태그: 문서신뢰성, 운영절차

  • 🔄 [개선] 에이전트 확장 시 역할 세분화

  • 기존 에이전트 수를 8→12로 늘리며 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 책임·기능을 더 작고 명확한 단위로 분리함으로써 유지보수성과 전문성을 개선.
  • 태그: 조직화, 책임분리, 확장성

  • 🔧 [해결] 프롬프트·호출 통계로 운영 상태 판단

  • 총 호출·성공률·프롬프트/응답량·에러 수 등 LLM 호출 통계를 수집·모니터링해 모델 안정성·비용·성능을 정량적으로 판단하고 조치 근거로 삼음.
  • 태그: 관찰지표, 운영모니터링

  • 📚 [교훈] 초기 누락은 빠른 정정으로 보완

  • 대답에서 특정 종목(VG)을 누락했지만, 사용자의 지적 후 빠르게 정정·보완함 — 실수 발생 시 즉각 수용하고 보충하는 행동이 신뢰 회복에 중요함.
  • 태그: 오류대응, 커뮤니케이션

  • ⚖️ [판단] 섹터 추천은 사건·공급망 영향 기반으로 판단

  • 전쟁·공급 차질 같은 외부 사건이 섹터(방산, 에너지, 비료, 금 등)에 미치는 영향과 대표 종목의 수혜 가능성을 근거로 투자/추천 우선순위를 매김.
  • 태그: 도메인지식, 사건영향평가

2026-03-19

  • 🔧 [해결] 모델마다 역할 분리로 성능·응답시간 최적화
  • 문제: 한 모델로 모든 작업을 처리하면 레이턴시·전문성 충돌 발생. 방식: 모델별 에이전트(심층 판단·분석·빠른 실행)로 라우팅해 호출 분산 및 목적별 특화 처리(예: Opus/심층, Sonnet/분석, Haiku/빠른 실행). 결과: 성공률 유지하면서 평균 레이턴시 개선 가능.
  • 태그: 모델라우팅, 성능최적화, 아키텍처

  • ⚖️ [판단] 풋프린트 큰 기술 전체도입보다 핵심 기능만 체리픽

  • 상황: 새로운 프레임워크(OMC)를 전체 도입할지 결정할 때 도메인 적합성 기준으로 판단. 결정: 코드 개발 용도와 맞지 않으면 전체 도입 불필요, 대신 유용한 3가지 기능만 선별 도입(체리픽).
  • 태그: 의사결정, 체리픽, 비용편익

  • 💡 [발견] 로컬 Codex는 모델 오버라이드와 config로 변경 가능

  • 발견: Codex CLI에서 -m/--model 옵션과 config.toml의 model 키를 통해 로컬에서 모델을 오버라이드할 수 있음. 실무적 의미: 공식 공개 여부와 별개로 로컬 환경에서 실험 가능.
  • 태그: 도구제한, 모델전환, 운영

  • 🔄 [개선] 프롬프트·응답량 모니터링으로 호출 효율 관리

  • 기존 방식: 호출만 누적 측정. 새 방식: 모델별 호출·성공률·레이턴시·프롬프트/응답 총량을 분리 집계해 병목·비용·오류 원인 추적(예: 모델별 평균 레이턴시 비교).
  • 태그: 관측성, 운영개선, 모니터링

  • 🔧 [해결] preemptive-compaction으로 세션·프롬프트 관리

  • 문제: 프롬프트 총량 증가로 비용·지연 우려 발생. 방식: preemptive-compaction 훅을 도입해 세션·프롬프트를 선제적으로 압축·정리하여 호출량 관리 및 비용 절감.
  • 태그: 프롬프트관리, 비용최적화, 자동화

  • 💡 [발견] 모델별 레이턴시 차이로 역할 배치 이득 발생

  • 사실: 동일 작업량에서도 모델별 평균 레이턴시 차이가 큼(예: gpt-5-mini vs sonnet). 의미: 레이턴시가 중요한 작업은 낮지연 모델로, 분석은 느려도 깊이 있는 모델로 배치해야 효율적.
  • 태그: 성능관찰, 모델선택

  • 📚 [교훈] 초기 불확실한 정보는 정정 로그로 바로 갱신해야 혼선 방지

  • 사건: gpt-5.4-mini 공개 여부에 대해 최초 확인이 불확실했다가 곧 정정함. 교훈: 빠른 정정·타임스탬프 기록으로 의사결정 혼선을 줄이고 로그 신뢰도를 유지해야 함.
  • 태그: 운영절차, 투명성, 로그

  • 🔄 [개선] 에이전트 확장 시 역할 명확화로 충돌 감소

  • 기존 방식: 단일 또는 적은 에이전트가 다수 역할 담당. 새 방식: 에이전트 수 확장(8→12) 및 역할 분화(analyst, report-writer 등)로 책임 분리, 충돌과 병목 감소.
  • 태그: 조직설계, 스케일링, 에이전트운영

2026-03-19

  • 🔧 [해결] 문제 범위가 넓으면 체리픽으로 핵심만 도입
  • OMC(큰 프레임) 전체 도입이 도메인에 맞지 않을 때, 전체 적용 대신 '가장 유효한 3가지'만 골라(cherry-pick) 적용하여 리스크와 작업량을 줄임. 예: OMC는 전체 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction만 적용.
  • 태그: 리스크관리, 체리픽, 도입전략

  • 🔧 [해결] 모델 역할을 명확히 나눠 라우팅으로 효율화

  • 작업 특성에 따라 모델을 역할별로 라우팅(심층 판단용, 분석·디버깅용, 빠른 실행용)하면 각 모델의 강점을 살려 호출 비용과 레이턴시를 최적화할 수 있음. 예: Opus/ Sonnet/ Haiku 3단계 모델 라우팅.
  • 태그: 모델라우팅, 효율화, 아키텍처

  • ⚖️ [판단] 전체 도입 vs 부분 체리픽 판단은 도메인 적합도로 결정

  • 새 프레임워크를 전사 적용할지 여부는 '도메인 적합성'을 우선 기준으로 판단한다. 도메인이 맞지 않으면 전체 도입 대신 핵심 기능만 선별 적용.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시와 호출비용의 트레이드오프 관찰

  • 같은 작업에서 모델별 평균 레이턴시가 크게 다르며(예: gpt-5-mini 14s vs sonnet 4-5s), 호출 수·성공률·레이턴시를 함께 관찰해 역할을 배분하면 전체 성능을 개선할 수 있음.
  • 태그: 관찰, 성능모니터링

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화하여 책임 분리

  • 에이전트 수를 늘릴 때 단순 증원이 아니라 기능별 책임(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)으로 세분화하면 유지보수와 병렬 처리 효율이 올라감.
  • 태그: 운영개선, 에이전트설계

  • 📚 [교훈] 초기 요약 누락 → 사용자가 불만 → 빠른 정정과 사과 필요

  • 콘텐츠(예: 종목 추천)에서 일부 중요한 항목을 빠뜨리면 사용자 불만이 즉시 발생한다. 빠르게 인정·정정하고 누락 항목(VG 등)을 보완한 상세 리포트를 제공해야 신뢰를 회복함.
  • 태그: 사용자응대, 운영교훈

  • 🔧 [해결] 대형 사건(전쟁·공급차질) → 섹터 맵으로 수혜주 분류

  • 전쟁이나 공급 차질 같은 이벤트가 발생하면 영향을 받는 섹터(방산·에너지·금·사이버보안·해운·비료 등)를 빠르게 맵핑하고 각 섹터별 핵심 수혜 종목과 핵심 논거를 표 형태로 정리해 전달하면 의사결정에 유용함.
  • 태그: 인베스트먼트리서치, 사건분석

  • ⚖️ [판단] 공식 문서 vs 로컬 환경 정보는 교차검증

  • 모델 공개 여부나 기능(예: gpt-5.4 mini 공개, Codex CLI의 모델 오버라이드 지원) 등은 공식 문서와 로컬(클라이언트/CLI)에서 모두 확인해 정정·확인 사항을 기록하여 혼선을 줄임.
  • 태그: 검증절차, 문서관리

2026-03-19

  • 🔧 [해결] 필요한 부분만 체리픽해서 도입
  • 전체 OMC를 한 번에 도입하지 않고 도메인에 맞는 핵심 기능 세 가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현해 리스크와 작업량을 줄였다.
  • 태그: 체리픽, 리스크관리, 점진적도입

  • ⚖️ [판단] 모델을 역할별로 라우팅하여 사용

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 모델 특성(심층/분석/속도)을 기준으로 라우팅해 작업을 분담시키는 의사결정.
  • 태그: 모델선택, 역할분담, 성능기반

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 -m/--model 또는 model 키로 로컬에서 모델을 변경할 수 있어, 문서에 명시 없더라도 환경에서 직접 제어 가능함을 확인.
  • 태그: 도구기능, 환경제어, 검증

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트에서 기능별로 에이전트를 추가(8→12)하여 책임 분리(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)함으로써 병렬 처리와 전문성 향상.
  • 태그: 조직구조, 모듈화, 스케일업

  • 📚 [교훈] 문서 기반 확인→정정의 반복으로 확실히 검증

  • 초기에 gpt-5.4 mini 공개 여부 확인이 불확실했으나 추가 검증으로 정정되었음. 외부 문서 관련 판단은 1차 확인 후 재확인 루틴을 두어 정정 비용을 줄여야 함.
  • 태그: 검증절차, 정정, 외부문서

  • 🔧 [해결] 사용자 불만에 대해 빠른 인정과 보완 제공

  • 사용자가 특정 종목(VG) 누락을 지적하면 즉시 사과하고 누락된 항목을 포함해 전체 맵(전쟁 수혜주 등)을 재정리해 제공함으로써 신뢰 회복과 정보 보강을 수행.
  • 태그: 사용자응대, 정보보완, 신뢰회복

  • 💡 [발견] LLM 호출 통계로 운영 품질을 측정

  • 총 호출수, 성공률, 프롬프트·응답 총량, 모델별 평균 레이턴시를 수집해 어떤 모델이 비용·지연·성공률 측면에서 효율적인지 파악함.
  • 태그: 관찰성, 운영지표, 모니터링

  • 🔄 [개선] 작업 로그에 파일·스크립트 변경 기록 연결

  • 세션 완료 작업과 함께 생성/수정된 파일 경로(.claude agents, scripts, hooks)를 명시해 이후 재현·검토가 쉽도록 워크플로우에 변경 추적을 포함시켰음.
  • 태그: 변경관리, 재현성, 운영정책

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽 방식으로 핵심만 적용
  • 전체 OMC 도입은 도메인 불일치로 비효율 판단 → 관련된 유용한 요소 3가지를 선별(cherry-pick)해 부분 도입(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)로 해결
  • 태그: OMC, 체리픽, 범위제한

  • ⚖️ [판단] 모델 라우팅은 역할별 역량에 따라 분리

  • 심층 판단(Opus) / 분석·디버깅(Sonnet) / 빠른 실행(Haiku)처럼 작업 성격에 맞춰 모델·에이전트를 3단계로 라우팅해 성능과 비용 균형 판단
  • 태그: 모델선택, 라우팅, 비용-성능

  • 💡 [발견] 로컬 툴링은 모델 오버라이드 지원을 통해 최신 모델 사용 가능

  • 공식 문서 확인 후 Codex CLI가 -m/--model 및 config.toml model 키로 모델 변경을 지원함을 확인 → 로컬 환경에서 모델 전환 가능
  • 태그: 툴링, Codex, 모델오버라이드

  • 🔧 [해결] 대규모 LLM 호출 통계로 안정성·성능 지표 관리

  • 총 호출·성공률·프롬프트·응답량·에러수와 모델별 호출·레이턴시를 정기 집계해 어떤 모델이 비용·지연·성공률 측면에서 유리한지 판단하고 라우팅에 반영
  • 태그: 모니터링, 지표, 운영

  • 🔄 [개선] 에이전트 확장은 기능별 세분화로 대응력 향상

  • 기존 에이전트에서 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등을 추가해 역할을 분화 → 특정 문제에 더 전문적으로 대응 가능
  • 태그: 아키텍처, 에이전트확장, 전문화

  • 📚 [교훈] 정보 불확실성 시 즉시 정정하고 기록

  • 08:14에 공개 확인 불가라고 답했으나 08:16에 공식 문서에서 공개 표기 확인 → 정정 로그를 남겨 혼선 방지 및 추후 근거 추적 가능하도록 함
  • 태그: 정정, 투명성, 기록

  • 💡 [발견] 도메인 전문성 부족은 전면 도입보다 선택적 적용이 효율

  • OMC 전체 도입 대신 도메인 적합한 부분만 체리픽한 결정에서, 범위와 전문성의 불일치가 전면 도입 실패 요인임을 확인
  • 태그: 도메인적합성, 범위관리

  • 🔧 [해결] 대화형 응답 누락 보완: 빠른 사과 후 결핍 항목 즉시 추가

  • 사용자에게 특정 종목(VG)을 누락한 경우, 빠르게 사과하고 누락된 기업을 상세히 보완해 신뢰 회복 및 요청 만족 처리
  • 태그: 고객응대, 포용성, 빠른보완

  • ⚖️ [판단] 섹터 추천은 사건→수혜 경로로 분류해 우선순위 결정

  • 예: 전쟁→방산·에너지·사이버보안 등 직접적 수혜 섹터로 분류하고, 각 섹터 내 대표종목·핵심 이유를 기준으로 추천 우선순위 설정
  • 태그: 투자분석, 우선순위, 사건영향

  • 📚 [교훈] 세부 데이터(지표·수치)는 요약과 함께 제공하되 길이 제한 고려

  • 상세 리포트가 길면 일부만 표시(예: 4269자 중 2000자 표시) → 전체 제공 필요 시 분할 또는 링크 방식으로 전달해야 사용성 개선
  • 태그: 리포팅, 가독성, 전달형태

2026-03-19

  • 🔧 [해결] 체리픽 방식으로 불필요한 전체 도입을 피하고 핵심만 구현
  • OMC 전체 도입을 하지 않고 도메인에 맞는 핵심 기능 3가지만 선택(cherry-pick)해 구현함으로써 개발 비용과 복잡도를 줄이고 빠른 가치 실현을 목표로 함.
  • 태그: 체리픽, 범위관리, 빠른실행

  • 🔧 [해결] 모델별 역할 분리로 작업 유형에 맞는 라우팅 적용

  • 심층 판단·분석·빠른 실행 등 작업 특성에 따라 Opus/Sonnet/Haiku로 모델 라우팅을 분리해 각 모델의 강점을 살려 처리 효율과 응답 품질을 개선함.
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • ⚖️ [판단] 전체 적용 vs 체리픽 — 도메인 적합성으로 결정

  • 기술적으로 가능하더라도 도메인이 맞지 않으면 전체 도입을 피하고, 도메인 적합성을 기준으로 부분적 적용(체리픽)을 선택함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 -m/--model 또는 model 키로 로컬에서 모델을 변경할 수 있음(운영 환경에서의 유연성 확인).
  • 태그: 도구능력, 운영유연성

  • 💡 [발견] 모델별 레이턴시·호출 패턴 차이 관찰

  • 같은 작업군에서도 모델(github-copilot/gpt-5-mini vs cliproxy/claude-sonnet)의 평균 레이턴시가 크게 다르므로 작업 매칭 시 레이턴시를 고려해야 함.
  • 태그: 측정관찰, 성능지표

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트를 8개에서 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문화된 에이전트를 추가해 책임 분리와 디버깅 효율을 높임.
  • 태그: 조직구조, 전문화, 확장

  • 🔄 [개선] preemptive-compaction 훅으로 프롬프트·출력 관리 자동화

  • preemptive-compaction 스크립트/훅을 통해 프롬프트 총량과 응답량을 사전 관리함으로써 호출 비용·컨텍스트 크기 문제를 줄이려는 워크플로우 개선 시도.
  • 태그: 프롬프트관리, 자동화

  • 📚 [교훈] 초기 누락 대응: 실수는 빠르게 인정하고 보완 자료 제공

  • 대화에서 특정 종목(VG)을 누락했을 때 사과하고 즉시 해당 종목을 보완해 상세 리포트를 제공함으로써 신뢰 회복과 정보 완결성을 확보한 사례.
  • 태그: 커뮤니케이션, 신뢰회복, 운영교훈

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 전체 도입 대신 체리픽으로 해결
  • OMC(큰 프레임워크)가 전체 도입하기에 도메인이 맞지 않을 때, 필요한 기능만 선별(cherry-pick)해 3가지 핵심만 가져와 적용함으로써 과도한 설계 부담을 줄이고 빠르게 가치 있는 부분만 도입했다.
  • 태그: 체리픽, 범위제한, 빠른가치

  • ⚖️ [판단] 모델·에이전트 배치는 역할별 성능 기준으로 결정

  • 모델 라우팅을 '심층 판단용/분석·디버깅용/빠른 실행용'처럼 역할별로 나누어(Opus/Sonnet/Haiku) 각 모델의 강점(레이턴시, 판단 깊이)에 따라 에이전트를 배치하는 기준을 사용했다.
  • 태그: 모델라우팅, 역할기반, 성능기준

  • 💡 [발견] 로컬 툴은 모델 오버라이드 지원

  • Codex CLI는 -m/--model과 config.toml의 model 키를 통해 로컬에서 모델 선택/오버라이드가 가능하다는 사실을 확인해 배포·테스트 유연성을 확보했다.
  • 태그: 도구기능, 구성관리

  • 🔄 [개선] 프롬프트·응답 메트릭 수집으로 신뢰성 모니터링

  • 총 호출, 성공률, 프롬프트·응답 총량, 모델별 호출/레이턴시 통계를 정기 수집해 LLM 파이프라인 신뢰성과 병목(레이턴시·에러)을 모니터링하도록 워크플로우를 강화했다.
  • 태그: 관찰성, 메트릭, 운영

  • 🔧 [해결] 사전 압축(preemptive-compaction) 훅으로 자원 관리

  • 대규모 프롬프트/데이터 사용 시 preemptive-compaction 스크립트를 훅으로 도입해 런타임 자원(예: 토큰·메모리)의 급증을 완화하도록 처리했다.
  • 태그: 자원관리, 스크립트훅

  • 📚 [교훈] 정보 누락 시 빠른 정정과 사과가 신뢰 회복에 도움

  • 대화에서 특정 종목(VG)을 누락한 실수가 있었고, 즉시 인정·사과하고 보완 정보를 제공함으로써 사용자 신뢰를 회복했다. 놓친 항목 확인 프로세스가 필요함이 드러났다.
  • 태그: 커뮤니케이션, 신뢰, 실수대응

  • 🔄 [개선] 의사결정 로그로 변경 이유·시간을 기록해 추적성 확보

  • 의사결정(예: OMC 일부 채택, 모델 라우팅 변경)을 시점과 이유를 로그에 남겨 누가 언제 왜 결정했는지 추적 가능하게 함으로써 후속 검토와 책임 소재를 명확히 했다.
  • 태그: 거버넌스, 추적성, 로그

  • ⚖️ [판단] 공식 문서 확인 후 로컬 테스트 결과로 판단 재확인

  • 초기 조사에서 공개 여부를 확인하지 못했으나, 공식 문서 재확인으로 공개 표기가 있음을 확인하고 로컬 툴의 모델 전환 지원 여부와 함께 판단을 정정했다. 공적 자료 + 로컬 검증 병행을 기준으로 삼음.
  • 태그: 검증절차, 공식문서, 로컬검증

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 도입
  • OMC(대규모 방식)가 전체 도입에 적합하지 않다고 판단될 때, 모든 기능을 가져오지 않고 도메인에 맞는 핵심 3가지만 선별(cherry-pick)해 구현해 리스크와 작업량을 줄임.
  • 태그: 체리픽, 범위조정, 리스크관리

  • 🔧 [해결] 모델별 에이전트 분리로 역할 특화

  • 작업 성격에 따라 에이전트를 모델/역할별로 분리(Opus/심층 판단, Sonnet/분석·디버깅, Haiku/빠른 실행)하여 각 모델의 강점을 살리고 호출 비용·지연을 최적화함.
  • 태그: 모델라우팅, 아키텍처, 확장성

  • ⚖️ [판단] A vs B 비교는 도메인 적합성으로 결정

  • 새 방식(A)을 전체 도입할지 기존 방식(B)을 유지할지 결정할 때는 '도메인 적합성'을 최우선 기준으로 삼아, 전문성 불일치면 부분적 채택만 허용함.
  • 태그: 의사결정기준, 도메인

  • 💡 [발견] 프롬프트·응답 볼륨과 호출수는 별개로 최적화해야 함

  • 세션 통계에서 프롬프트 총량과 응답 총량이 매우 크지만 성공률은 높음 → 호출 수·문자량·레이턴시를 각각 관찰해 모델 선택·라우팅을 최적화해야 함.
  • 태그: 관찰, 모니터링, 성능

  • 🔄 [개선] preemptive-compaction 훅으로 자원·프롬프트 관리

  • 프롬프트/세션 상태를 사전 압축(preemptive-compaction)하는 훅을 도입해 LLM 호출량과 비용을 통제하고 레이턴시/비용 효율을 개선함.
  • 태그: 프롬프트관리, 비용절감, 운영자동화

  • 📚 [교훈] 초기 전체 도입은 비용·적합성 문제 유발

  • 처음부터 모든 기능을 통째로 도입하려다 보면 도메인 불일치와 불필요한 작업이 생김 → 작은 체리픽+검증 반복이 안전하고 효율적임.
  • 태그: 실수와교훈, 작게시작

  • 💡 [발견] 모델별 레이턴시 차이가 라우팅 판단에 영향

  • 같은 작업이라도 모델마다 평균 레이턴시가 크게 달라(예: copilot 14s vs sonnet 5s) 빠른 응답이 필요한 작업과 심층 판단 작업을 분리해 라우팅하면 UX와 처리율이 개선됨.
  • 태그: 레이턴시, 모델선택, 라우팅

  • 🔧 [해결] 오류 있는 모델 호출은 로컬 오버라이드로 보완

  • 외부 모델이 불안정하거나 공개 여부가 불확실할 때는 로컬 Codex의 모델 오버라이드(-m/--model, config.toml)를 이용해 안정적으로 대체하거나 검증함.
  • 태그: 대체전략, 안정성

2026-03-19

  • 🔧 [해결] 문제별 모델 분리로 책임 분담
  • 복합 작업(심층 판단 vs 분석·디버깅 vs 빠른 실행)이 있을 때 단일 모델에 맡기지 않고 역할에 따라 Opus/Sonnet/Haiku처럼 모델 라우팅을 나눠 성능과 응답 속도를 최적화함. 예: 심층 판단은 고지연 고성능 모델, 빠른 실행은 저지연 경량 모델 배치.
  • 태그: 모델라우팅, 성능분리, 아키텍처

  • ⚖️ [판단] 전체 도입보다 체리픽(부분 도입)을 우선

  • 새 기법(OMC 등)을 조직 전체에 한꺼번에 도입하기보다 도메인 적합성 기준으로 우선순위가 높은 3가지 기능만 선별(체리픽)해 먼저 적용하고 효과를 검증함.
  • 태그: 도입전략, 리스크관리

  • 💡 [발견] 모델별 호출·레이턴시 통계가 운영 판단 근거가 된다

  • 모델별 호출 수·성공률·평균 레이턴시를 집계하면 어떤 모델을 어떤 용도로 쓰는지와 비용·성능 트레이드오프를 정량적으로 파악할 수 있음(예: sonnet은 응답 빠름, gpt-5-mini 호출은 실패 사례 존재).
  • 태그: 관찰, 운영지표, 모니터링

  • 🔧 [해결] preemptive-compaction으로 프롬프트/응답 비용 관리

  • 프롬프트 길이·응답량이 큰 작업에서 사전 압축(선택적 요약·정리) 스크립트를 걸어 호출당 토큰·비용을 줄이고 전체 LLM 비용과 레이턴시를 개선함.
  • 태그: 비용절감, 프롬프트엔지니어링, 자동화

  • 🔄 [개선] 에이전트 확장 시 역할 분화로 책임과 관찰성 향상

  • 단일 에이전트에서 여러 역할을 처리하던 것을 analyst, report-writer, pipeline-debugger-deep 등으로 세분화해 각 에이전트의 목적·로그·검증을 명확히 함으로써 디버깅과 성능 튜닝이 쉬워짐.
  • 태그: 오케스트레이션, 관찰성, 운영

  • ⚖️ [판단] 공식 문서 확인 vs 로컬 동작 실험 — 문서가 우선 확인 근거

  • 모델 공개 여부나 기능(예: gpt-5.4 mini 공개)은 우선 공식 문서를 확인하고, 로컬에서 동작 가능 여부(예: Codex CLI의 모델 오버라이드 지원)는 추가로 실험·검증해 결론을 확정함. 문서와 실험을 조합한 의사결정.
  • 태그: 검증절차, 정보출처

  • 💡 [발견] 금융·도메인 응답의 빠진 항목은 즉시 보완 답변으로 커버

  • 사용자 질의에서 특정 종목(VG) 누락이 발견되면 빠르게 정정·보완해 신뢰 회복—운영 대화에서 실수 발견 → 즉시 보완 흐름이 루틴화됨.
  • 태그: 사용자응대, 신뢰회복

  • 📚 [교훈] 초기 포괄 응답은 누락 위험↑ → 요약·체크리스트로 검증 필요

  • 긴 리스트형 응답(섹터·종목 등)을 바로 보내면 핵심 항목이 누락될 수 있으므로, 응답 전 체크리스트(핵심 종목 포함 여부)나 자동 크로스체크 과정을 도입해야 함(예: 주요 수혜주 검증 루틴).
  • 태그: 교훈, 품질관리, 응답검증

2026-03-19

  • 🔧 [해결] 복잡한 모델·에이전트 요구는 체리픽으로 축소 적용
  • 전체 OMC 도입이 도메인과 맞지 않을 때 전면 적용 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 핵심 3가지만 선택해 먼저 구현하여 비용·위험을 줄이고 가치 검증 후 확장한다.
  • 태그: 모델설계, 리스크관리, 단계적도입

  • ⚖️ [판단] 모델 라우팅은 역할·지연·판단 복잡도로 결정

  • Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델을 책임(심층/분석/빠른 실행)으로 나누어 라우팅하면 호출 수·레이턴시·성능 요구에 맞춰 효율적으로 분산할 수 있다.
  • 태그: 아키텍처, 모델선택, 성능

  • 💡 [발견] 프롬프트 총량과 응답량은 호출 성공률과 별개로 편차 큼

  • 세션 통계에서 프롬프트 문자량과 응답 문자량, 호출 수가 다양하게 나타나며 모델별 평균 레이턴시 차이도 큼(예: github-copilot 레이턴시 높음). 프롬프트 길이·빈도는 비용과 레이턴시에 큰 영향.
  • 태그: 계측, 비용관리, 관찰

  • 🔧 [해결] 로컬 CLI/설정으로 모델 오버라이드하여 빠르게 실험

  • 공식 문서 공개 시점이 불확실하거나 원격 모델이 불안할 때 Codex CLI의 -m/--model 옵션이나 config.toml의 model 키로 로컬 환경에서 모델을 바꿔 실험·검증한다.
  • 태그: 실험, 개발툴, 회복탄력성

  • 🔄 [개선] 에이전트 확장은 역할별 세분화로 진행

  • 에이전트 수를 단순 증가시키기보다 기능별(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)로 확장하면 책임이 명확해지고 디버깅·운영이 쉬워진다.
  • 태그: 운영, 조직화, 확장성

  • 📚 [교훈] 초기 누락(예: VG) 발생 시 즉시 정정하고 보상 설명 제공

  • 대화에서 특정 종목을 누락했을 때 사과와 함께 빠르게 보완(전쟁 수혜주에 VG 추가 설명)하면 신뢰 회복이 가능하다. 실수 발생시 투명한 정정 프로세스가 중요.
  • 태그: 사용자상호작용, 신뢰, 운영절차

  • ⚖️ [판단] 도메인 적합성 기준으로 기능 전체 도입 여부 판단

  • OMC 같은 큰 프레임워크는 코드 개발 전문 도메인에는 과도하다고 판단되면 전체 도입 대신 핵심만 채택(체리픽)하는 쪽을 택한다 — 도메인 적합성(전문성 매칭)을 우선 기준으로 삼음.
  • 태그: 정책결정, 도메인전문성

  • 💡 [발견] 모델별 실패/성공 분포로 실험 우선순위 정해짐

  • 대화 로그의 모델별 호출·성공률·레이턴시 표로 보아 어떤 모델이 실패(0% 성공 등)를 보이는지 파악하면 실험·교체 우선순위를 정할 수 있다(예: 일부 모델 호출 실패는 바로 교체 대상으로 분류).
  • 태그: A/B테스트, 관찰, 운영결정

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 체리픽(선별 적용)
  • OMC 전체 도입이 도메인과 맞지 않을 때는 전체 적용 대신 핵심 3가지만 체리픽해서 도입(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 비용을 줄이고 영향 있는 부분만 우선 적용한다.
  • 태그: 모듈화, 리스크관리, 우선순위

  • 🔧 [해결] 모델 라우팅으로 역할 분담

  • 작업 특성에 따라 모델을 역할별로 라우팅(심층 판단용 Opus, 분석·디버깅 Sonnet, 빠른 실행 Haiku)하여 작업 효율과 응답 품질을 개선한다.
  • 태그: 아키텍처, 성능최적화, 모델선택

  • ⚖️ [판단] 기술 전체 도입 vs 선별 체리픽 판단 기준은 도메인 적합성

  • 새 기술을 '전체 도입'할지 결정할 때는 팀의 주 업무(예: 코드 개발 전문성)와 기술의 도메인 적합성을 기준으로 판단, 부적합하면 부분적 체리픽으로 대체한다.
  • 태그: 의사결정, 적합성

  • 💡 [발견] 모델별 호출 통계로 운영 이슈 파악

  • 모델별 호출 수·성공률·레이턴시 통계를 정기적으로 모니터링하면 어떤 모델이 병목인지, 실패 패턴(에러 수)과 프롬프트/응답량 불균형을 발견할 수 있다.
  • 태그: 모니터링, 운영지표

  • 🔄 [개선] 에이전트 확장으로 역할을 세분화

  • 기존 에이전트 집합을 확장(8→12)해 책임을 분리하고 전문 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)를 배치해 작업 병렬성과 전문성을 높였다.
  • 태그: 운영개선, 스케일링

  • 📚 [교훈] 정보 누락 시 빠르게 사과하고 보완 제공

  • 대화에서 종목(VG) 누락이 발견되면 즉시 사과하고 누락된 항목을 보완해 전체 맵을 제공함으로써 신뢰 회복과 사용자 만족을 도모해야 한다.
  • 태그: 커뮤니케이션, 신뢰복구

  • 💡 [발견] 외부 사건(예: 가스전 피격)이 특정 섹터에 직결

  • UAE Shah 피격 같은 물리적 사건이 황 공급 차질을 일으켜 비료·농업 섹터에 즉각적 가격·수급 영향을 주는 식으로 사건→섹터 연결 고리를 빠르게 식별하면 투자/리스크 분석에 유용하다.
  • 태그: 인과관계, 도메인지식

2026-03-19

  • 🔧 [해결] 체리픽으로 필요 최소 기능만 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 핵심 3가지를 선별(cherry-pick)해 구현했다. 전체 도입 대신 중요한 부분만 선택해 빠르게 적용하는 방식.
  • 태그: 작업절약, 우선순위, 빠른실행

  • 🔧 [해결] 모델별 에이전트 분리로 역할 분담

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)처럼 모델 특성에 따라 에이전트를 분리해 호출 비용과 레이턴시를 최적화했다.
  • 태그: 아키텍처, 모델라우팅, 성능최적화

  • ⚖️ [판단] 기능 도입 여부는 도메인 적합성으로 결정

  • 새 프레임워크 또는 방식 도입 시 전체 적용 대신 '도메인이 맞는가'를 먼저 확인하여 불필요한 도입을 피하고, 맞지 않으면 체리픽으로 핵심만 가져온다.
  • 태그: 의사결정, 도메인검증

  • 💡 [발견] 프롬프트·응답 비율과 호출 효율성 차이

  • 세션별로 프롬프트 총량과 응답 총량, 모델별 호출/레이턴시 수치가 크게 달랐고, 특정 모델은 낮은 레이턴시로 다수 호출에 적합함이 관찰되었다(예: sonnet 낮은 레이턴시).
  • 태그: 측정, 모델성능, 운영지표

  • 🔄 [개선] preemptive-compaction 훅으로 세션 데이터 관리

  • preemptive-compaction 스크립트를 도입해 세션/프롬프트 데이터를 사전 정리함으로써 시스템 부하와 스토리지 문제를 줄이는 워크플로우 개선을 적용했다.
  • 태그: 데이터관리, 운영자동화

  • 📚 [교훈] 초기 누락 → 빠른 정정과 고객 응대 필요

  • 대화에서 특정 종목(VG)을 누락했고, 즉시 정정해 사과 및 보완 답변을 제공했다. 실무에서는 누락이 발견되면 신속히 정정하고 맥락을 보완해야 신뢰를 유지할 수 있다.
  • 태그: 커뮤니케이션, 신뢰회복

  • 💡 [발견] 로컬 CLI·설정으로 모델 오버라이드 가능

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키로 로컬에서 모델 변경을 지원한다는 사실을 확인해, 문서 확인만으로도 실행 환경을 유연하게 조정할 수 있음을 발견했다.
  • 태그: 운영정보, 도구사용

  • 🔄 [개선] 에이전트 수평 확장으로 역할 전문화

  • 기존 8개에서 12개로 에이전트를 늘려(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등) 각 에이전트에 전문 역할을 할당해 작업 병렬화와 책임 범위를 분명히 했다.
  • 태그: 스케일링, 조직화, 병렬처리

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 축소해 도메인 적합성 유지
  • OMC 전체 도입이 적합하지 않다고 판단될 때, 핵심 가치가 있는 기능 3가지만 선택해(체리픽) 구현함으로써 개발 부담을 줄이고 효과를 확보했다. 필요시 도메인별로 맞춤 적용(모델별 에이전트 분리 등)을 병행한다.
  • 태그: 체리픽, 도메인적합성, 범위축소

  • ⚖️ [판단] 모델 라우팅은 역할(심층/분석/빠른실행)로 분리하여 선택

  • 에이전트 확장 시 Opus/ Sonnet/ Haiku처럼 역할별 모델 라우팅(심층 판단, 분석·디버깅, 빠른 실행)을 기준으로 배치하면 응답 성격에 맞는 자원 할당과 성능 최적화가 가능하다.
  • 태그: 모델선택, 라우팅, 성능

  • 💡 [발견] 프롬프트 총량 대비 응답 비율이 운영 비용 지표로 유용

  • 세션에서 프롬프트 총량과 응답 총량, 호출 횟수, 성공률 같은 메트릭을 같이 기록하면 모델 효율성(예: 토큰 대비 응답 길이, 실패 패턴)과 비용 추적에 쓸 수 있음을 확인했다.
  • 태그: 관측지표, 모니터링, LLM운영

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화해 책임 분리

  • 기존 단일 에이전트에서 8→12개로 늘리며 analyst, report-writer, pipeline-debugger-deep 등 역할을 늘려 각 에이전트가 명확한 책임을 가지도록 변경하면 유지보수와 병렬처리가 쉬워진다.
  • 태그: 아키텍처, 책임분리, 확장성

  • 📚 [교훈] 초기 누락 항목은 빠르게 사과·수정하고 보완정보 제공

  • Vg(Venture Global) 누락에 대해 즉시 사과하고 상세 보완 리포트를 제공한 흐름은 신뢰 회복에 효과적이었다. 실무 대화에서 누락 시 빠른 정정이 중요하다.
  • 태그: 커뮤니케이션, 신뢰회복, 운영절차

  • 🔧 [해결] 로컬 CLI와 문서 교차검증으로 모델 공개 여부 확인

  • gpt-5.4 mini 공개 여부에 대해 공식 문서와 Codex CLI(모델 오버라이드 기능)를 교차 확인해 정정된 결론을 도출했다. 문서와 로컬 도구를 함께 확인하는 규칙을 적용했다.
  • 태그: 검증, 교차확인, 도큐먼트검토

  • 💡 [발견] 모델별 레이턴시 차이가 워크플로우 설계에 영향

  • 세션 통계에서 모델별 평균 레이턴시(예: github-copilot vs sonnet)가 크게 달라 특정 작업은 낮은 레이턴시 모델로 라우팅해야 효율적임을 확인했다.
  • 태그: 성능관찰, 라우팅정책, 레이턴시

  • 🔄 [개선] preemptive-compaction 등 운영 훅으로 비용·성능 관리

  • preemptive-compaction 같은 훅을 도입해 세션·에이전트 상태를 사전 정리하면 프롬프트 크기·응답 품질·호출 비용을 통제하기 쉬워진다.
  • 태그: 운영훅, 비용절감, 성능관리

2026-03-19

  • 🔧 [해결] 체리픽으로 필요한 기능만 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 필요한 세 가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용함 — 전체 도입 대신 핵심만 체리픽해 리스크와 개발비용을 줄임.
  • 태그: 선택적도입, 리스크관리, 체리픽

  • 🔧 [해결] 모델 특성 따라 라우팅 분리

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 모델 라우팅을 설계해 작업을 적절한 모델로 보냄 — 비용·레이턴시·정확도 기준을 고려한 라우팅 패턴.
  • 태그: 모델라우팅, 성능-비용-정확도

  • ⚖️ [판단] 도메인 적합성으로 도입 여부 결정

  • 새 시스템(OMC) 도입 시 개발팀의 도메인 적합성을 기준으로 전체 도입을 거부하고 체리픽을 택함 — '팀의 도메인 전문성'을 핵심 의사결정 기준으로 사용.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 프롬프트·응답량과 호출 통계로 운영 상태 판단

  • 세션별 총 호출수, 성공률, 프롬프트 총량, 응답 총량, 모델별 평균 레이턴시 등을 집계해 시스템 안정성 및 비용·성능 병목을 발견함 — 호출 통계가 운영 인사이트를 제공함.
  • 태그: 모니터링, 운영지표

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트(8개)를 12개로 확장해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 분화함으로써 책임과 전문성을 분리하고 문제 대응을 빠르게 함.
  • 태그: 조직구조, 책임분리, 스케일업

  • 📚 [교훈] 문서·도구로 확인된 사실을 바로 정정·반영

  • 초기에 Codex 5.4 mini 공개 여부를 불확실로 기록했다가 공식 문서 확인 후 즉시 정정함 — 불확실 정보는 검증 후 신속히 업데이트해야 함.
  • 태그: 검증절차, 정보정정

  • 🔧 [해결] 경험기반 훑어보기(러닝 스크립트) 도입

  • 세션에서 learner 패턴 추출과 session_learner.py 생성, preemptive-compaction 훅 추가 등으로 반복 작업에서 학습·자동화 파이프라인을 만들어 수동 반복을 줄임.
  • 태그: 자동화, 학습파이프라인

  • 💡 [발견] 모델별 레이턴시 편차 관찰

  • 같은 작업군에서도 모델별 평균 레이턴시가 크게 달라(gpt-5-mini 11s vs claude-sonnet 4s 등) 작업-모델 매칭이 성능에 큰 영향이 있음을 확인함.
  • 태그: 성능관찰, 모델선택

  • ⚖️ [판단] 빠른 실행 필요시 경량 모델 우선

  • 짧은 레이턴시가 중요하거나 반복 호출이 많은 작업은 Haiku처럼 빠른 실행 모델에 배치하고, 심층 판단은 Opus에 할당하는 기준을 사용함.
  • 태그: 스케줄링, 성능우선

  • 📚 [교훈] 세션 통계는 오류 탐지와 개선 우선순위 결정에 필수

  • 전체 호출·에러·성공률 통계를 통해 일부 모델의 호출 실패(에러 수 집계)를 조기에 파악하고 개선 우선순위를 정해야 함 — 통계 수집을 의무화할 것.
  • 태그: 운영교훈, 모니터링정책

2026-03-19

  • 🔧 [해결] 체리픽으로 도입 범위 축소
  • 전체 OMC 도입은 도메인 불일치로 비효율적이라고 판단하여, 필요한 기능 3가지만 선별(cherry-pick)해 구현함(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 불필요한 전체적 도입 대신 핵심만 적용해 비용과 복잡도를 줄임.
  • 태그: 범위관리, 비용절감, 최소화

  • 🔧 [해결] 모델 역할 기반 라우팅으로 효율화

  • 작업 특성에 따라 모델을 역할별로 나누어 라우팅(심층 판단용 Opus, 분석·디버깅용 Sonnet, 빠른 실행용 Haiku). 작업 성격에 맞는 모델을 할당해 응답속도와 판단 품질을 최적화함.
  • 태그: 모델라우팅, 성능최적화, 역할분리

  • ⚖️ [판단] 도메인 적합성으로 도구 도입 결정

  • 새 도구(OMC)를 도입할 때 '우리의 도메인과 맞는가'를 우선 판별. 도메인 불일치 시 전체 도입을 피하고 필요한 부분만 채택함.
  • 태그: 의사결정기준, 도구선택

  • 💡 [발견] 프롬프트·응답 비율로 호출 효율 파악

  • 세션별 프롬프트 총량과 응답 총량, 호출수·성공률을 기록해 모델 사용 효율(예: 호출 대비 응답량, 레이턴시)과 문제 지점을 식별함.
  • 태그: 관찰, 측정, 운영모니터링

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분화

  • 필요 기능을 식별한 뒤 에이전트를 8→12개로 확장하여 책임과 기능을 분리(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가). 단일 에이전트 과부하를 줄이고 전문화된 처리를 가능하게 함.
  • 태그: 아키텍처변경, 스케일링, 전문화

  • 📚 [교훈] 정정 로그로 신속한 사실 업데이트 필요

  • 초기엔 gpt-5.4 mini 공개 여부를 불확실하게 기록했다가 정정으로 문서상 공개 표기 확인. 변경·정정 사항은 즉시 로그로 남겨 혼선과 중복 조사를 줄여야 함.
  • 태그: 문서관리, 변경통제, 투명성

  • 💡 [발견] 모델별 레이턴시 차이가 운영 선택에 영향

  • 같은 작업군에서 모델마다 평균 레이턴시가 크게 달라(예: copilot 14s vs sonnet 5.5s) 라우팅·배치 결정에 레이턴시를 주요 기준으로 사용함.
  • 태그: 관찰, 성능지표, 모델선택

  • 🔧 [해결] 특정 도메인 질문에 빠른 보완 답변 프로세스

  • 사용자 질의(VG 누락)에 대해 즉각 사과 후 빠르게 보완 자료(전쟁 수혜주 맵, VG 상세) 제공. 사용자 불만·누락 대응을 '사과 + 빠른 보완' 흐름으로 표준화함.
  • 태그: 사용자응대, 고객서비스, 운영절차

2026-03-19

  • 🔧 [해결] 체리픽으로 필요한 기능만 도입
  • 전체 OMC 도입 대신 도메인 적합성을 판단해 핵심 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 비용과 복잡도를 줄이고 효과는 유지한다.
  • 태그: OMC, 체리픽, 비용절감

  • 🔧 [해결] 모델 특성에 따라 라우팅 분리

  • 작업 성격(심층 판단 vs 분석·디버깅 vs 빠른 실행)에 따라 Opus/Sonnet/Haiku처럼 모델·에이전트 역할을 분리해 호출 수와 레이턴시를 최적화한다.
  • 태그: 모델라우팅, 성능최적화

  • ⚖️ [판단] 전체 도입 vs 제한적 채택: 도메인 적합성 기준

  • 기능이나 프레임워크를 전체 도입할지 결정할 때는 '팀의 도메인 적합성'을 우선 기준으로 삼아 불필요한 전면 적용을 피한다.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 로컬 환경에서 -m/--model 혹은 model 키로 모델을 변경할 수 있음이 확인되어 운영 유연성이 확보됨.
  • 태그: 도구특성, 운영유연성

  • 🔄 [개선] 에이전트 확장으로 전문성 세분화

  • 기존 에이전트 수를 늘려(8→12) 역할을 세분화함으로써 각 에이전트가 더 전문적·명확한 책임을 가지게 하고 작업 분산을 개선함.
  • 태그: 워크플로우, 아키텍처

  • 📚 [교훈] 문서 검증의 재확인 필요성

  • 초기에 공개 여부를 확인했다가 정정한 사례처럼 외부 문서(예: 모델 공개 여부)를 판단할 때는 중복 확인·최종 소스 검증을 반드시 거쳐야 한다.
  • 태그: 검증, 절차개선

  • 💡 [발견] 모델별 레이턴시 차이는 운영 설계에 영향

  • 세션 통계에서 모델마다 평균 레이턴시가 크게 달라(예: 14s vs 5s) 호출 분배와 실시간성 요구 작업은 레이턴시를 기준으로 배치해야 함이 드러남.
  • 태그: 성능관찰, 운영설계

  • 🔧 [해결] preemptive-compaction으로 자원 사용 최적화

  • preemptive-compaction 훅을 도입해 세션·프롬프트 데이터를 사전 압축·정리함으로써 호출 비용과 지연을 줄이는 패턴을 적용함.
  • 태그: 리소스최적화, 운영툴

  • 📚 [교훈] 빠른 사과 + 빠른 보정

  • 콘텐츠 누락(예: VG 빠진 사례)에 대해 즉시 사과하고 빠르게 보완 설명을 제공하는 응대 흐름이 신뢰 회복에 효과적임.
  • 태그: 커뮤니케이션, 고객응대

2026-03-19

  • 🔧 [해결] 복잡한 기능은 핵심만 체리픽해 단계별로 도입
  • OMC 전체 도입이 불필요하다고 판단될 때 전체를 한꺼번에 적용하지 않고, 도메인 적합성에 따라 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 3가지만 우선 구현하여 리스크와 작업량을 줄임.
  • 태그: 점진도입, 리스크관리, 우선순위

  • 🔧 [해결] 모델 특성에 맞춘 라우팅으로 역할 분담

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 모델별 강점을 기준으로 라우팅 규칙을 만들면 각 모델의 처리 지연과 비용을 최적화할 수 있음.
  • 태그: 모델라우팅, 성능최적화, 역할분담

  • ⚖️ [판단] 전체 도입 vs 부분 채택은 도메인 적합성으로 결정

  • 새 방식(OMC)을 전사 도입할지 여부는 팀의 전문성과 도메인 적합성을 기준으로 판단한다. 개발 전문팀에는 전체 도입보다 체리픽(선택적 적용)이 더 효율적이라는 결론을 내림.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 프롬프트·응답량 대비 호출 효율성 차이 존재

  • 세션 통계에서 모델별 호출 수와 레이턴시가 크게 달라 모델 선택이 총 비용·지연에 직접 영향함(예: cliproxy/claude-sonnet 평균 레이턴시가 낮음). 모델별 역할을 명확히 하면 효율 개선 가능.
  • 태그: 측정, 비용분석, 모델성능

  • 🔄 [개선] 모델 오버라이드 지원 확인 → 유연한 실험 환경 마련

  • Codex CLI의 -m/--model 및 config.toml 지원을 확인해 모델 전환을 쉽게 하도록 구성하면 새로운 공개 모델(gpt-5.4-mini 등) 등장 시 빠르게 테스트·전환할 수 있음.
  • 태그: 인프라, 유연성, 실험환경

  • 📚 [교훈] 초기 오류/누락은 즉시 정정하고 기록

  • 대화에서 VG를 누락한 실수를 인정하고 빠르게 보완한 것처럼, 실수는 발견 즉시 정정(정정 로그 추가)하고 재발 방지용 절차를 남기면 신뢰 회복과 학습에 도움이 됨.
  • 태그: 사후조치, 투명성, 복구절차

  • 💡 [발견] 로그·메트릭 자동집계로 성공률·에러 추적

  • LLM 호출 통계(총 호출, 성공률, 프롬프트·응답 총량, 에러 수)를 정기적으로 기록하면 모델 변화·문제 발생 시 원인 추적과 용량 계획에 유용함.
  • 태그: 관찰가능성, 모니터링, 운영

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 진행

  • 에이전트 수를 단순 증설(8→12)할 때는 새로운 에이전트에 명확한 책임(예: analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 부여해 중복을 줄이고 운영 효율을 올림.
  • 태그: 조직설계, 책임소재, 운영효율

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 핵심만 체리픽
  • 전체 OMC 도입 대신 도메인 적합성으로 판단하여 세 가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용함으로써 과도한 변경을 피하고 효과만 확보함.
  • 태그: 체리픽, 도메인적합, 점진적도입

  • ⚖️ [판단] 기술 도입은 '도메인 적합성'으로 결정

  • 새 방법론 전체 적용 여부는 내부 도메인 적합성(코드 개발 전문성 여부 등)을 기준으로 판단하고, 적합하지 않으면 부분 채택(체리픽)을 택함.
  • 태그: 의사결정기준, 도메인적합

  • 🔧 [해결] 모델 역할별 라우팅으로 작업 분담

  • 심층 판단엔 Opus, 분석·디버깅엔 Sonnet, 빠른 실행엔 Haiku처럼 모델 성격에 맞춰 3단계 라우팅을 적용하여 작업 효율과 응답 특성 최적화.
  • 태그: 모델라우팅, 역할분담, 성능최적화

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI와 config.toml이 -m/--model 및 model 키로 모델 변경을 지원함을 확인 — 로컬 환경에서 모델 전환이 가능함.
  • 태그: 발견, 툴체크, 환경설정

  • 📚 [교훈] 공식 문서 확인 후 정정 절차를 남겨라

  • 초기에 gpt-5.4-mini 공개 여부를 부정했다가 문서 확인으로 정정함. 중요한 사실은 즉시 공식 출처로 검증하고 정정 로그를 남겨 혼선 최소화해야 함.
  • 태그: 검증, 정정절차, 출처확인

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가 — 책임을 작게 쪼개고 전문화하여 작업 병렬성과 추적성 향상.
  • 태그: 워크플로우개선, 에이전트아키텍처, 전문화

  • 🔧 [해결] learner 패턴 추출 + preemptive compaction 자동화

  • 세션에서 learner 패턴 추출 스크립트와 선행(compaction) 훅을 만들어 반복 호출 로그를 요약·압축함으로써 프롬프트 비용과 응답 지연을 줄임.
  • 태그: 자동화, 프롬프트관리, 비용절감

  • 💡 [발견] LLM 호출 통계로 안정성 모니터링

  • 총 호출·성공률·프롬프트·응답량·에러 수와 모델별 평균 레이턴시를 정기적으로 집계해 모델 성능·비용·신뢰성 기반 의사결정 자료로 사용함.
  • 태그: 관찰, 계측, 운영지표

  • 📚 [교훈] 응답 실패 모델도 로그로 남겨 원인분석

  • 일부 모델(gpt-5-mini, qwen2.5 등) 호출이 0% 성공률로 기록됨 — 실패 모델은 호출/레이턴시 로그와 함께 보관해 후속 조치(대체모델, 설정검토)에 활용해야 함.
  • 태그: 교훈, 모니터링, 장애대응

  • ⚖️ [판단] 정보 정정은 빠르게 공지하고 로그에 기록

  • 08:15→08:16 사이 정정보고처럼, 외부 정보(모델 공개 등)는 확인 즉시 세션 의사결정 로그에 남겨 투명성 유지와 추적을 용이하게 함.
  • 태그: 판단기준, 투명성, 운영절차

2026-03-19

  • 🔧 [해결] 필요 없는 전체 도입 대신 체리픽으로 핵심만 적용
  • OMC를 전면 도입하지 않고, 도메인 적합성에 따라 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지 기능만 골라 적용해 비용과 복잡도 절감.
  • 태그: 체리픽, 비용절감, 범위결정

  • 🔧 [해결] 모델 역량에 따라 3단계 라우팅

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 모델별 역할을 분리해 호출 비용·레이턴시·정확성 요구에 맞춰 요청을 라우팅함으로써 성능과 비용 균형을 맞춤.
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • ⚖️ [판단] 도메인 적합성으로 전체 도입 여부 판단

  • 새 기술(OMC) 도입 시 코드 개발 전문 영역과의 적합성을 우선 판단해, 도메인에 맞지 않으면 전면 도입을 피하고 핵심만 선별 적용하기로 결정.
  • 태그: 도입판단, 도메인적합성

  • 💡 [발견] 프롬프트·응답량 대비 호출 성공률과 레이턴시 차이

  • 세션 통계에서 모델별 호출 수와 평균 레이턴시 차이를 관찰해, 레이턴시가 높은 모델은 심층 판단에, 빠른 모델은 다수의 가벼운 요청에 배치하는 근거로 사용됨.
  • 태그: 측정기반, 모델선택

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전담 역할을 만들며 책임 분리와 병렬 처리 능력을 향상시킴.
  • 태그: 스케일링, 역할세분화, 운영개선

  • 📚 [교훈] 초기 정보 부정확성은 정정 로그로 보완

  • 08:14에 gpt-5.4 mini 공개 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기 확인 — 외부 정보 확인 시 즉시 로그에 정정 기록을 남기면 추적과 신뢰성 유지에 도움이 됨.
  • 태그: 정정, 정보검증, 투명성

  • 🔧 [해결] 누락된 사용자 피드백은 사과 후 즉시 보완 제공

  • 사용자가 특정 종목(VG) 누락을 지적하자 즉시 사과하고 해당 종목을 포함한 상세 분석(수익률, 매출 등)을 제공해 신뢰 회복 및 사용자 만족을 확보함.
  • 태그: 사용자피드백, 고객응대, 운영절차

  • 💡 [발견] 크고 작은 세션 통계 차이로 문제 포인트 식별

  • 같은 날짜 다른 세션의 호출/에러 통계를 비교해 일부 모델에서 에러·0% 성공률(예: gpt-5-mini, qwen2.5:7b, openai-codex/gpt-5.4)이 발생함을 확인 — 문제 모델 식별 후 대체 모델로 라우팅 필요.
  • 태그: 모니터링, 장애탐지, 대체전략

2026-03-19

  • 🔧 [해결] 체리픽(선택적 적용)로 복잡성 낮춤
  • 전체 OMC 도입이 도메인에 맞지 않을 때는 전체 적용을 강행하지 않고, 유용한 부분만 선별해(cherry-pick) 세 가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 구현해 위험과 작업량을 줄였다.
  • 태그: 리스크관리, 점진적도입

  • ⚖️ [판단] 모델 라우팅은 작업 특성에 따라 분리

  • 심층 판단·분석·빠른 실행 등 작업 성격에 따라 Opus/Sonnet/Haiku처럼 모델·에이전트를 역할별로 나눠 라우팅하면 응답 품질과 비용·지연을 최적화할 수 있다.
  • 태그: 아키텍처, 비용-품질균형

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI 및 config.toml에서 -m/--model이나 model 키로 모델 변경을 지원한다는 사실을 확인하여 로컬 환경에서 모델 전환이 가능함을 발견했다.
  • 태그: 환경설정, 운영

  • 🔄 [개선] preemptive-compaction으로 프롬프트 관리

  • 프롬프트 총량/응답량이 큰 작업에서 미리 compaction(선제적 압축)을 적용하면 LLM 호출 효율과 비용 제어에 도움이 된다—세션에 preemptive-compaction 훅을 추가해 적용했다.
  • 태그: 프롬프트관리, 비용절감

  • 📚 [교훈] 전체 도입보다 도메인 적합성 확인 우선

  • OMC 전체 도입을 곧바로 적용하려다 도메인 불일치로 비효율이 우려돼, 먼저 도메인 적합성을 검증한 뒤 필요한 기능만 선택 적용하는 것이 안전하다는 교훈을 얻음.
  • 태그: 거버넌스, 검증우선

  • 💡 [발견] 모델별 레이턴시 차이가 운영 의사결정 영향

  • 세션 통계에서 모델별 평균 레이턴시(예: github-copilot 14s vs sonnet 5s)를 확인해, 응답속도가 중요한 작업은 저지연 모델로 라우팅해야 한다는 운영 인사이트를 얻음.
  • 태그: 관찰, 성능운영

  • 🔧 [해결] 에이전트 확장으로 역할 분담

  • 필요에 따라 에이전트 수를 8→12로 늘려(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가) 책임과 기능을 분리함으로써 병렬 처리와 전문성 확보 문제를 해결했다.
  • 태그: 스케일링, 팀구성

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 체리픽으로 핵심만 도입
  • OMC 전체 도입이 도메인에 맞지 않을 경우 전체를 도입하지 않고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 핵심 3가지만 선별(cherry-pick)해 적용한다. 리스크·적합성 기준으로 부분 적용을 우선함.
  • 태그: 부분적도입, 체리픽, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할별로 구분

  • 성능/용도 기준으로 모델을 역할별로 배치(심층 판단: Opus, 분석·디버깅: Sonnet, 빠른 실행: Haiku). 복잡도와 응답속도를 판단 기준으로 삼아 라우팅 결정을 내림.
  • 태그: 모델선택, 라우팅, 성능기준

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키로 모델 변경을 지원하는 사실을 확인함 — 로컬 환경에서 모델 전환이 가능함.
  • 태그: 도구기능, 환경설정

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 해결

  • 에이전트 수를 늘릴 때 단순 수량 확장이 아닌 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)로 세분화해 책임과 기능을 명확히 함으로써 확장 후 운영 효율을 높임.
  • 태그: 확장전략, 역할기반

  • 🔧 [해결] 프롬프트·모델 통계로 운영 결정을 검증

  • LLM 호출 횟수, 성공률, 프롬프트·응답 총량, 모델별 레이턴시 등을 수집해 운영 성능을 모니터링하고 의사결정(예: 모델 교체, 라우팅 조정)의 근거로 사용함.
  • 태그: 관측가능성, 지표기반결정

  • 📚 [교훈] 초기 누락은 빠르게 정정하고 기록하라

  • 대화에서 특정 종목(VG)을 누락했을 때 즉시 정정하고 상세 정보를 보완함. 사용자 신뢰 회복을 위해 오류 정정과 원인·보완을 빠르게 기록·공유해야 함.
  • 태그: 피드백반영, 정정절차

  • 💡 [발견] 모델별 레이턴시·성공률 분포가 의사결정 영향

  • 같은 작업에서 모델별 호출 수·평균 레이턴시가 크게 다름(gpt-5-mini 높음, claude-sonnet 낮음) — 비용·속도·성공률을 종합해 모델 사용 분배를 최적화할 수 있음.
  • 태그: 모델분석, 비용속도트레이드오프

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 전체 도입 대신 체리픽 3가지만 선택
  • OMC를 전체 도입하기에 도메인이 맞지 않으면 전면 도입을 피하고, 도메인 적합한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별 적용해 비용과 복잡도를 줄였다.
  • 태그: 도메인적합성, 범위축소, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 결정

  • 모델별 역할(심층 판단 / 분석·디버깅 / 빠른 실행)에 따라 Opus/Sonnet/Haiku로 3단계 라우팅을 적용하여 작업 성격에 맞는 모델을 배정하기로 결정했다.
  • 태그: 모델선택, 라운팅, 성능기반

  • 💡 [발견] CLI와 config로 로컬 모델 오버라이드 가능

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델 오버라이드를 지원한다는 사실을 확인했다(운영환경에서 모델 변경이 가능함).
  • 태그: 툴링, 운영, 모델관리

  • 💡 [발견] 문서 확인 오류 → 즉시 정정 로그 남김

  • 처음에는 공식 문서에서 gpt-5.4-mini 공개 불가로 기록했으나 추가 확인으로 공개 표기를 찾음. 정정 기록을 남겨 의사결정 이력과 증빙을 보완했다.
  • 태그: 검증, 의사결정로그, 투명성

  • 🔄 [개선] 에이전트 확장 시 역할 세분화로 처리량과 전문성 향상

  • 기존 에이전트 수를 8→12로 확장하고 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 전문 에이전트를 추가해 작업 분산과 전문성 강화를 도모했다.
  • 태그: 조직, 스케일링, 전문화

  • 📚 [교훈] 응답 누락(종목 빠뜨림) 시 빠른 인정과 보완 리포트가 신뢰 회복에 유효

  • Vg(벤쳐글로벌)를 누락한 사례에서 즉시 사과하고 빠르게 해당 종목 분석을 보완 제공해 신뢰를 회복했다. 실시간 피드백 처리 프로세스의 중요성이 드러남.
  • 태그: 고객대응, 신뢰회복, 피드백루프

  • 💡 [발견] LLM 호출 통계로 모델별 성능·비용 지표를 운영 지표로 활용

  • 총 호출·성공률·프롬프트/응답량·레이턴시를 수집해 모델별 호출량과 평균 레이턴시를 비교함으로써 어느 모델을 어떤 용도로 쓸지 운영 결정을 내렸다(예: sonnet 낮은 레이턴시로 분석집중).
  • 태그: 관찰지표, 운영모니터링, 비용전략

  • 🔧 [해결] preemptive-compaction으로 프롬프트 비용 및 레이턴시 최적화

  • 대규모 프롬프트 사용 환경에서 preemptive-compaction 훅을 도입해 프롬프트 길이와 전송량을 사전 압축/정리함으로써 호출 비용과 레이턴시를 줄이는 패턴을 구현했다.
  • 태그: 프롬프트엔지니어링, 비용절감, 성능최적화

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전체 도입 대신 체리픽 3가지만 적용
  • OMC(큰 프레임워크)가 도메인에 맞지 않으면 전면 도입을 피하고, 도메인에 유효한 핵심 기능 3가지를 골라(cherry-pick) 도입하여 비용과 복잡도를 줄인다. 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction만 적용.
  • 태그: 적용전략, 리스크절감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 업무 성격에 따라 층화한다

  • 심층 판단/분석/빠른 실행처럼 역할을 기준으로 모델군을 나누어 라우팅한다(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행). 성능·지연·비용을 고려해 적합한 모델을 배정한다.
  • 태그: 모델설계, 라우팅, 성능기준

  • 🔄 [개선] 에이전트 확장은 역할별 세분화로 확대

  • 기존 에이전트 수를 늘릴 때 단순 복제 대신 기능별·목적별로 에이전트를 추가(예: analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)해 책임과 기능을 명확히 분리하여 유지보수와 확장성을 개선한다.
  • 태그: 아키텍처, 확장성, 운영

  • 💡 [발견] 로컬 툴은 모델 오버라이드 지원을 통해 빠른 테스트 환경 제공

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 오버라이드를 지원한다는 사실을 확인하여, 공식 공개 여부와 별개로 로컬에서 모델 변경 테스트가 가능함을 발견함.
  • 태그: 도구, 테스트, 개발환경

  • 📚 [교훈] 외부 문서 확인 결과가 바뀌면 즉시 정정 기록하라

  • 08:15에 공개 확인 불가로 기록했다가 08:16에 공개 표기 확인으로 정정함. 문서 기반 판단은 초안 상태에서 재확인 후 즉시 의사결정 로그를 수정·보완해야 혼란을 줄일 수 있다.
  • 태그: 문서검증, 의사결정로그, 정정

  • 🔧 [해결] 프롬프트·응답량·성공률을 정기 집계하여 모델 운영 상태를 모니터링

  • 총 호출수, 성공률, 프롬프트·응답 총량, 에러 수, 모델별 호출·레이턴시 등의 지표를 수집해 안정성·성능·비용 문제를 빠르게 감지하고 대응한다. 예: 성공률·에러 추적으로 문제 모델 식별.
  • 태그: 모니터링, 운영지표, 관찰성

  • ⚖️ [판단] 사용자 응답 실수 시 빠른 사과와 보완 정보 제공

  • 대화에서 특정 종목(VG)을 빠뜨렸을 때 즉시 사과하고 누락된 정보를 보완해 제공함. 사용자 신뢰 회복을 위해 인정→사과→보완 순으로 응답한다.
  • 태그: 사용자대응, 커뮤니케이션, 신뢰회복

  • 🔄 [개선] 핵심 기능은 스크립트·문서로 남겨 재사용성 확보

  • 세션에서 구현한 기능들(예: scripts/session_learner.py, preemptive-compaction.sh, agents 문서)을 파일로 남겨 재사용·자동화 가능하도록 함. 변경·배포 시 경로·파일 명세를 함께 기록해 재현성을 높인다.
  • 태그: 자동화, 재현성, 문서화

2026-03-19

  • 🔧 [해결] 문제별 모델 체리픽으로 복잡성 줄임
  • 전체 OMC 도입은 도메인 부적합으로 비효율적이라 판단하고, 필요한 기능(모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction)만 선택적으로 체리픽해 적용하여 개발 비용과 위험을 낮춤.
  • 태그: 모델라우팅, 최소적용, 비용절감

  • ⚖️ [판단] 모델 선택은 역할(심층 판단 vs 분석 vs 빠른 실행)로 결정

  • 에이전트 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할 기준으로 분리해 각 모델의 강점을 살리는 방식으로 의사결정함.
  • 태그: 모델선정, 역할기반

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키를 통해 로컬에서 모델을 변경할 수 있음(문서 확인 후 정정 포함).
  • 태그: 도구능력, 검증

  • 🔄 [개선] 에이전트 확장으로 책임 분리

  • 기존 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전담 역할을 두어 각 기능의 테스트·디버깅·보고를 분리함으로써 운영·유지보수 효율을 높임.
  • 태그: 조직구조, 운영효율

  • 📚 [교훈] 전체 도입보다 체리픽 우선

  • 새 아키텍처나 프레임워크를 무조건 전면 도입하기보다는 도메인 적합성을 검토하고, 맞는 기능만 골라 적용하는 것이 개발 낭비와 리스크를 줄임.
  • 태그: 교훈, 프로젝트관리

  • 💡 [발견] LLM 호출 통계로 모델 성능 파악

  • 모델별 호출수·성공률·평균 레이턴시를 수집해 성능·비용·신뢰도 판단 근거로 삼음(예: sonnet 레이턴시 낮음, gpt-5-mini 호출 실패 사례 존재).
  • 태그: 모니터링, 의사결정데이터

  • 🔧 [해결] preemptive-compaction으로 자원효율 개선

  • 대화·세션에서 preemptive-compaction 훅을 도입해 프롬프트·상태를 미리 압축·정리함으로써 호출량 대비 비용과 레이턴시를 개선하려는 패턴.
  • 태그: 성능최적화, 프롬프트관리

  • 📚 [교훈] 정정·재검증 로그를 즉시 남겨 혼선 최소화

  • 08:15에서 08:16 사이 모델 공개 여부가 정정되었는데, 정정 로그를 남겨 문서·결정의 신뢰도를 유지해야 함을 확인함.
  • 태그: 문서화, 정확성

2026-03-19

  • 🔧 [해결] 체리픽으로 복잡한 방법 대신 핵심 3가지만 적용
  • OMC 전체 도입은 도메인 비적합으로 판단하여 전체 적용을 포기하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 세 가지만 선택 적용하여 비용과 위험을 줄임.
  • 태그: 체리픽, 리스크관리, 적용범위

  • ⚖️ [판단] 모델 라우팅은 역할(심층/분석/신속) 기준으로 분리

  • 세 단계 라우팅(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)처럼 모델을 성능·용도 기준으로 나누어 트래픽과 책임을 분산시킴.
  • 태그: 모델선택, 역할기반, 성능분리

  • 💡 [발견] 프롬프트량 대비 응답량 불균형 관찰

  • 세션별로 프롬프트 총량과 응답 총량의 차가 큼(예: 프롬프트 569k자 대비 응답 62k자), 이는 프롬프트 길이나 복잡도가 호출비용에 큰 영향을 줌을 보여줌.
  • 태그: 메트릭, 비용효율, 프롬프트

  • 🔧 [해결] 로컬 CLI·config로 모델 오버라이드 해결

  • Codex CLI의 -m/--model 및 config.toml model 키를 사용해 로컬 환경에서 모델 변경을 지원함으로써 공식 문서 공개 지연과 무관하게 실험 가능하게 함.
  • 태그: 도구사용, 환경설정, 모델오버라이드

  • 🔄 [개선] 에이전트 규모 확장으로 역할 분화

  • 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 역할을 추가하여 작업 책임과 전문성 명확화.
  • 태그: 조직구조, 스케일링, 역할분할

  • 📚 [교훈] 전체 도입보다 도메인 적합성 우선 검토

  • 처음부터 OMC 전체 적용을 시도하기보다는 도메인 적합성을 먼저 판단해 불필요한 작업을 줄여야 한다는 교훈(결과적으로 체리픽으로 시간 절약).
  • 태그: 교훈, 사전검증, 비용절감

  • 💡 [발견] 모델별 평균 레이턴시 차이가 운영설계에 영향

  • 같은 호출환경에서 모델마다 평균 레이턴시(예: 14s vs 5.5s)가 크게 달라 서비스 설계·타임아웃·라우팅 전략에 반영해야 함을 확인.
  • 태그: 성능관찰, 레이턴시, 운영설계

  • 🔧 [해결] 긴 답변(도메인 정리)은 섹터별 요약+대표종목 맵으로 구조화

  • 긴 시장·종목 설명은 섹터별 핵심 포인트와 대표 종목 표로 정리해 가독성과 전달력을 높였음(예: 방산/에너지/금 등으로 분류).
  • 태그: 문서화, 정보구조, 가독성

2026-03-19

  • 🔧 [해결] 부분 적용(체리픽)으로 복잡한 프레임워크 도입 비용 줄이기
  • OMC 전체를 도입하지 않고 도메인에 맞는 핵심 3가지만 체리픽(cherry-pick)해 구현함으로써 개발비용과 불일치 리스크를 낮춤. 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction만 선택 적용.
  • 태그: 체리픽, 비용절감, 리스크관리

  • ⚖️ [판단] 모델 라우팅 기준은 역할(심층 판단 vs 분석·디버깅 vs 빠른 실행)

  • 여러 모델/에이전트를 3단계로 라우팅할 때 각 모델에 특화된 역할을 기준으로 배치함. Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행 같은 역할 중심 분리로 효율과 응답 특성 최적화.
  • 태그: 모델선택, 역할기반, 라우팅

  • 💡 [발견] 상황별 모델 성능·레이턴시 차이를 운영 지표로 활용

  • 세션 통계에서 모델별 호출수·성공률·평균 레이턴시를 수집해 라우팅·스케일링 결정에 활용함(예: Sonnet이 낮은 레이턴시로 다수 호출 처리). 운영적 의사결정에 성능 지표를 직접 연계한 사례.
  • 태그: 모니터링, 성능지표, 운영

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 8개 에이전트를 12개로 확장하여 기능을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가). 역할을 분리해 병렬 처리와 전문성을 높임.
  • 태그: 아키텍처, 스케일링, 분업

  • 🔧 [해결] 사전 정리 스크립트/훅으로 실행환경 안정화

  • preemptive-compaction 스크립트와 session_learner.py 같은 자동화 파일을 만들어 호출 전후 상태를 정리·학습시켜 반복작업 안정화 및 프롬프트·응답 관리 간소화.
  • 태그: 자동화, 운영안정, 스크립트

  • 📚 [교훈] 정보 누락 대응: 빠르게 정정하고 보강하기

  • 초기에 VG(벤쳐글로벌)를 누락한 답변 후 사용자 지적을 받아 즉시 사과하고 내용을 보강함. 실시간 피드백 → 즉시 수정의 프로세스를 확립해야 함.
  • 태그: 피드백, 품질관리, 응답수정

  • ⚖️ [판단] 문서 기준 확인 후 의사결정 정정

  • 초기에는 공개 여부를 확인하지 못했으나 이후 OpenAI 공식 문서를 재확인해 gpt-5.4-mini 공개 표기를 발견하고 의사결정을 업데이트함. 외부 사실 기준은 공식 문서 재검증을 우선함.
  • 태그: 검증, 출처확인, 의사결정

  • 💡 [발견] 거대한 프롬프트량은 호출 관리·비용 정책 필요성을 시사함

  • 세션별 프롬프트 총량·응답 총량 수치(수만~수십만자)가 기록되어 있어 대량 호출 시 토큰·비용·레이턴시 관리를 위한 정책(프롬프트 압축, 모델 배치, 호출 한도)이 필요함을 확인.
  • 태그: 비용관리, 프롬프트엔지니어링, 정책

  • 🔄 [개선] 역할에 맞는 모델-에이전트 매핑을 통해 응답 신뢰도와 처리량 균형 맞추기

  • 심층 판단은 지연 허용 모델에, 반복·대량 호출은 저지연 모델에 배치하는 패턴을 적용해 성공률은 유지하면서 전체 처리량을 개선함(성공률 98~100% 유지 사례 포함).
  • 태그: 운영전략, 모델매핑, 효율화

2026-03-19

  • 🔧 [해결] 핵심만 체리픽해서 도입
  • 전체 OMC 도입 대신 도메인/목적이 맞는 핵심 기능 3가지를 선별(cherry-pick)해 구현함으로써 비용과 복잡도 절감. 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 적용.
  • 태그: 선택적도입, 비용절감, MVP

  • 🔧 [해결] 모델 역할별 라우팅으로 효율화

  • 작업 특성에 따라 모델을 역할군으로 나누어 라우팅(심층 판단→Opus, 분석·디버깅→Sonnet, 빠른 실행→Haiku)하여 응답 품질과 레이턴시 균형을 맞춤.
  • 태그: 모델라우팅, 성능최적화, 품질관리

  • ⚖️ [판단] 도메인 적합성으로 도입 여부 결정

  • 새 기술·방법을 전사 도입할지 판단할 때 '팀의 전문성/도메인 적합성'을 기준으로 불필요하면 부분 적용(체리픽)으로 결정.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함—로컬 환경에서 모델 실험 가능.
  • 태그: 도구역량, 실험환경

  • 💡 [발견] LLM 호출 통계로 병목·신뢰성 파악

  • 모델별 호출 수·성공률·평균 레이턴시를 기록해 어떤 모델이 비용·지연·신뢰성에 영향을 주는지 분석 가능함(예: sonnet 레이턴시 짧음).
  • 태그: 관찰, 성능계측

  • 🔄 [개선] 에이전트 확장으로 책임 분리

  • 작업별 전문 에이전트를 추가(8→12)해 역할을 세분화함으로써 각 에이전트의 책임과 목적을 명확히 하고 유지보수 용이성 향상.
  • 태그: 아키텍처개선, 역할분리

  • 📚 [교훈] 초기 누락은 빠른 정정·보완으로 해결

  • 대화에서 특정 종목(VG)을 누락했을 때 즉시 인정하고 보완한 것이 신뢰 회복에 유리—실수 인정 + 신속 보완 패턴.
  • 태그: 신뢰회복, 운영절차

  • 📚 [교훈] 데이터/문서 근거로 의사결정 정정

  • 초기 문서 해석이 달라질 수 있으니(예: gpt-5.4-mini 공개 여부) 공식 문서 확인 후 정정 로그를 남겨 의사결정의 투명성을 확보해야 함.
  • 태그: 검증절차, 문서근거

2026-03-19

  • 🔧 [해결] 문제 분해 후 핵심 3가지만 선택해 체리픽
  • 전체 OMC 도입이 불필요할 때 전체를 적용하지 않고, 도메인 적합한 핵심 기능(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 3가지만 골라 먼저 구현하여 비용과 복잡도 줄임.
  • 태그: 체리픽, 범위절제, 빠른가치

  • ⚖️ [판단] 모델 라우팅은 작업 특성별로 분리

  • 심층 판단, 분석·디버깅, 빠른 실행 같은 작업 특성에 따라 Opus/Sonnet/Haiku 등으로 라우팅해 모델별 역할을 명확히 분담함—성능과 비용을 고려한 분리 기준.
  • 태그: 모델선택, 라우팅, 성능비용

  • 💡 [발견] 로컬 CLI와 공식 문서 차이로 인한 혼선 발생

  • Codex CLI는 -m/--model 및 config.toml로 모델 오버라이드 지원하지만, 공개 여부(예: gpt-5.4-mini)는 공식 문서와 검증 시점에 따라 달라져 정정이 필요했음—문서 확인 후 재검증 패턴 필요.
  • 태그: 문서검증, 정정, 운영절차

  • 🔄 [개선] 에이전트 확장은 단계적 추가 + 역할 명시

  • 처음에 8개에서 12개로 확장하며 새 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)를 추가해 역할을 세분화함—확장 시 역할을 명확히 하여 충돌/중복을 줄임.
  • 태그: 에이전트운영, 역할분리, 확장전략

  • 🔧 [해결] 대응 우선순위를 섹터별 맵으로 정리해 빠르게 대응

  • 주가 급등·시장 이벤트 대응 시 섹터별(방산, 에너지, 금, 사이버보안 등) 핵심 종목·이유를 한눈에 정리해 요청자 불만(예: 특정 종목 누락)에 빠르게 보완 제공.
  • 태그: 정보정리, 금융리서치, 고객대응

  • 📚 [교훈] 초기 응답 누락 → 신속한 정정과 사과 필요

  • 대화에서 특정 종목(VG)을 누락했을 때 즉시 인정하고 보완 설명으로 신뢰 회복함—응답 누락 시 정정·사과·추가정보 제공이 효과적임.
  • 태그: 커뮤니케이션, 신뢰회복, 운영교훈

  • ⚖️ [판단] LLM 사용 통계로 모델 적중성·비용 판단

  • 모델별 호출·성공률·평균 레이턴시 통계를 수집해 어떤 모델에 부담이 가는지, 대체 가능성 여부를 판단(예: 높은 레이턴시 모델은 심층 판단용으로 배정).
  • 태그: 메트릭기반, 비용관리, 모델운영

  • 🔄 [개선] 파일·스크립트 생성과 훅 추가로 자동화 파이프라인 강화

  • 세션 결과로 관련 파일(agents, scripts, hooks)을 즉시 생성해 반복작업을 자동화하고 재현성 확보—작업 완료 즉시 아티팩트로 남기는 워크플로우.
  • 태그: 자동화, 재현성, 파이프라인

2026-03-19

  • 🔧 [해결] 문제별 기능만 체리픽해 적용
  • OMC 전체 도입은 도메인 불일치로 부적절하다고 판단하고, 필요한 기능만 선별(cherry-pick)해 적용함 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 등 핵심 3가지를 우선 구현하여 비용과 복잡도를 줄임.
  • 태그: 체리픽, 비용절감, 모듈화

  • ⚖️ [판단] 도구 전체 도입 vs 부분 적용은 도메인 적합성 기준

  • 새 프레임워크(OMC) 도입 여부 판단 시 '코드 개발 전문성 vs 도메인 적합성'을 기준으로 삼아 전체 도입을 배제하고 부분 적용을 선택함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 라우팅으로 역할 분리 효과

  • 3단계 모델 라우팅(Opus/심층 판단, Sonnet/분석·디버깅, Haiku/빠른 실행)을 적용하면 각 모델의 강점을 살려 응답 품질과 처리속도를 동시에 최적화할 수 있음.
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • 🔄 [개선] 에이전트 수평 확장으로 전문화

  • 필요한 기능을 담당하는 에이전트를 추가(8→12)해 책임을 분리하고 각 기능(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 전문화함 — 단일 에이전트의 책임 과부하를 줄이는 방향.
  • 태그: 에이전트아키텍처, 전문화, 확장성

  • 📚 [교훈] 문서·공식 확인의 중요성 — 초기 정보 정정 사례

  • Codex/gpt-5.4 mini 공개 여부에 대해 초기(08:15)에는 확인 불가로 기록했다가(정정 전), 재확인 후(08:16) OpenAI 문서에 공개 표기가 있음을 확인한 사례 — 핵심: 결론 전 반드시 공식 문서 재확인할 것.
  • 태그: 검증절차, 문서확인, 정정

  • 🔧 [해결] 대규모 LLM 호출 통계로 운영 상태 점검

  • 세션별 LLM 호출 수·성공률·프롬프트·응답량·에러 수를 정기적으로 집계해 모델 성능(레이터시·성공률)과 비용·품질을 모니터링하고 문제 발생 시 모델별 대응(라우팅·대체)을 결정함.
  • 태그: 관찰성, 모니터링, 운영

  • 💡 [발견] 도메인 사건→섹터 영향 맵핑

  • 실제 이벤트(예: Shah 가스전 피격)가 공급체인(황 공급 차질)과 산업(비료)으로 이어지는 흐름을 추적해 관련 섹터·종목을 신속히 식별하는 패턴을 확인함.
  • 태그: 인과추적, 도메인지식, 투자분석

  • ⚖️ [판단] 빠른 실행 모델 우선 vs 심층 모델 병행 기준

  • 응답 요구가 '빠른 실행'일 때는 Haiku 같은 저지연 모델을 우선 쓰고, 심층 판단이 필요할 때는 Opus로 라우팅하는 규칙을 적용 — 응답 속도와 깊이의 트레이드오프로 판단함.
  • 태그: 성능트레이드오프, 모델선택

2026-03-19

  • 🔧 [해결] 문제별 모델 분리로 효율 향상
  • OMC 전체 도입은 불필요할 때, 필요한 기능(모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction)만 체리픽하여 적용해 개발 부담과 도메인 불일치 문제를 줄임.
  • 태그: 모델라우팅, 선택적도입, 효율

  • ⚖️ [판단] 도메인 적합성 기준으로 도입 범위 결정

  • 새 방식(OMC 등)을 전면 도입할지 결정할 때 '팀의 도메인 적합성'을 기준으로 삼아, 맞지 않으면 핵심 기능만 선택적으로 적용하기로 판단함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 3단계 모델 라우팅이 역할 분담에 유리

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)으로 모델 역할을 분리하니 각 모델의 레이턴시/용량 특성에 맞춰 호출을 최적화할 수 있음.
  • 태그: 모델설계, 성능최적화

  • 🔄 [개선] 체리픽 방식 → 점진적 도입 워크플로우

  • 전체 전면 도입 대신 '핵심 3가지 기능만 우선 구현'하고 성과 확인 후 확장하는 흐름으로 리스크와 비용을 낮춤.
  • 태그: 워크플로우, 리스크관리

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 플래그와 config.toml의 model 키로 모델 변경이 가능하므로 로컬 환경에서 실험적 모델 전환이 쉬움.
  • 태그: 도구사용팁, 실험환경

  • 📚 [교훈] 초기 정보 불확실성 → 즉시 정정 로그 남기기

  • 08:15에 공개 확인 불가로 기록했다가 08:16에 정정해 공개 표기 확인을 남김 — 불확실한 사실은 임시표기로 처리하고 확인 즉시 정정 기록을 남기는 절차가 필요함.
  • 태그: 운영절차, 투명성

  • 🔧 [해결] 에이전트 수평 확장으로 역할 분산

  • 에이전트 수를 8→12로 늘려 분석·리포트·디버깅·크론 진단 등 책임을 세분화함으로써 병목 감소와 전문성 향상을 도모함.
  • 태그: 운영스케일링, 역할분배

2026-03-19

  • 🔧 [해결] 필요한 기능만 체리픽해서 도입
  • 전체 OMC 도입은 도메인 부적합하므로, 관련된 유용한 구성요소(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용함으로써 비용과 복잡성을 줄이고 효과는 유지한다.
  • 태그: 체리픽, 범위결정, 비용절감

  • 🔧 [해결] 모델 역할별 라우팅으로 작업 분담

  • 세부 판단에 적합한 Opus, 분석·디버깅용 Sonnet, 빠른 실행용 Haiku로 모델을 역할별로 나눠 호출량과 지연을 최적화함.
  • 태그: 모델라우팅, 성능분리, 운영효율

  • ⚖️ [판단] 도메인 적합성 기준으로 도입 결정

  • 새 기술·프레임워크 도입 시 '우리 도메인에 맞는가'를 우선 판단 기준으로 삼아, 부적합하면 부분 도입(체리픽)이나 보류를 결정했다.
  • 태그: 도입판단, 도메인적합성

  • 💡 [발견] LLM 호출 성공률과 모델별 레이턴시 차이 관찰

  • 같은 작업에서도 모델별로 호출 횟수·성공률은 비슷하지만 평균 레이턴시가 크게 달라 운영상 대기시간에 영향이 있음(예: github-copilot 긴 레이턴시 vs sonnet 짧음).
  • 태그: 모니터링, 성능측정

  • 🔄 [개선] 에이전트 수평확장으로 역할 분화

  • 기존 에이전트(8개)를 12개로 확장해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 분리하여 작업 충돌을 줄이고 전문성을 높였음.
  • 태그: 아키텍처개선, 역할분화

  • 🔄 [개선] 로컬 CLI로 모델 오버라이드 지원 확인 후 유연성 확보

  • Codex CLI의 -m/--model 및 config.toml 설정으로 로컬에서 모델을 쉽게 변경할 수 있음을 확인해 테스트·전환 속도를 개선함.
  • 태그: 운영유연성, 도구활용

  • 📚 [교훈] 정보 정정은 빠르게 반영하고 로그에 남기기

  • 초기엔 gpt-5.4 mini 공개 확인 불가로 기록했다가 곧바로 공식 문서에서 공개 표기가 확인되어 정정했음 — 정정·출처추적을 남겨 혼선 최소화 필요.
  • 태그: 투명성, 출처검증

  • 📚 [교훈] 응답 누락에 대한 신속한 사과와 보완 제공

  • 사용자 질의에서 특정 종목(VG)을 누락했을 때 즉시 사과하고 해당 종목을 별도 보완·설명하여 신뢰 회복에 주력함.
  • 태그: 사용자응대, 신뢰회복

2026-03-19

  • 🔧 [해결] 대규모 기능은 체리픽해 핵심만 도입
  • 전체 OMC 도입이 도메인에 맞지 않을 때 전체 적용 대신 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택적으로 적용하여 개발 비용과 복잡도를 줄임.
  • 태그: 체리픽, 범위절제, 비용절감

  • 🔧 [해결] 모델 성능별로 에이전트 역할 분리

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 모델 특성에 맞게 라우팅해 각 모델의 강점을 살려 작업을 분산함.
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • ⚖️ [판단] 기술 도입 판단은 도메인 적합성 기준

  • 새 시스템(OMC) 도입 여부는 '우리 도메인(코드 개발)과의 적합성'을 우선 기준으로 삼아 전체 도입 대신 불필요하면 부분 적용으로 결정함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 -m/--model 또는 model 키로 로컬에서 모델 변경이 가능하다는 사실을 확인함(문서 확인으로 검증).
  • 태그: 도구제약, 설정관리

  • 💡 [발견] LLM 호출 통계로 모델별 레이턴시·성공률 차이 관찰

  • 세션별 호출 통계를 통해 같은 작업에서도 모델별 호출수·성공률·평균 레이턴시가 크게 달라 운영·비용·성능 결정을 내리기 좋은 근거를 확보함.
  • 태그: 모니터링, 지표기반의사결정

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 필요 기능을 발견하면 기존 8개에서 12개로 에이전트 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)해 책임을 분리하고 전담성을 높임.
  • 태그: 조직설계, 기능세분화

  • 📚 [교훈] 초기 누락은 빠르게 인정하고 보완

  • 대화에서 특정 종목(VG)을 누락했을 때 즉시 사과하고 누락된 항목을 보완해 신뢰 회복과 완성된 응답 제공을 우선시함—실수 발생 시 빠른 정정이 핵심.
  • 태그: 실수교정, 커뮤니케이션

  • 📚 [교훈] 정보 정정은 로그로 남겨 재현성 확보

  • 08:15에서 08:16 사이 문서 확인 결과가 바뀌자 정정 로그를 남겨 언제 어떤 근거로 판단이 바뀌었는지 추적 가능하게 함—결정 변경 시 근거와 타임스탬프 기록 필요.
  • 태그: 감사추적, 투명성

2026-03-19

  • 🔧 [해결] 체리픽으로 복잡도 줄이기
  • 대규모 OMC 전면 도입 대신 도메인 적합성에 따라 핵심 3가지만 선택해 구현(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 전체 적용보다 부분 도입으로 시간·리스크 절감.
  • 태그: 현실주의, 리스크관리, 단계적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 결정

  • 심층 판단(Decision)에는 Opus, 분석·디버깅에는 Sonnet, 빠른 실행·간단 태스크에는 Haiku처럼 모델을 역할(목적)별로 분리해 라우팅하면 처리 효율과 응답 품질을 높일 수 있음.
  • 태그: 아키텍처, 모델선택, 성능

  • 💡 [발견] 로컬 툴은 모델 오버라이드 지원

  • Codex CLI가 -m/--model과 config.toml의 model 키로 모델 변경을 지원함. 따라서 로컬 환경에서는 공식 공개 여부와 상관없이 모델 선택·테스트가 가능함.
  • 태그: 도구속성, 운영환경

  • 🔄 [개선] 에이전트 스케일링은 필요 기능 중심으로

  • 에이전트 수를 단순히 늘리기보다 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 세분화해 8→12로 확장함으로써 책임과 기능을 명확히 분배함.
  • 태그: 워크플로우, 운영개선

  • 📚 [교훈] 초기 누락은 빠르게 정정하고 투명하게 로그에 남기기

  • 대화에서 특정 종목(VG)을 누락했을 때 곧바로 정정하고 상세 정보를 제공함. 실수 발생 시 즉각 수정·기록하면 신뢰 회복이 빠름.
  • 태그: 운영절차, 신뢰관리

  • 🔧 [해결] 프롬프트·모델 통계로 신뢰성 점검

  • LLM 호출 통계(총 호출, 성공률, 에러 수, 모델별 레이턴시 등)를 수집·분석해 어떤 모델이 안정적·효율적인지 판단하고 문제(에러·비정상 레이턴시)를 추적함.
  • 태그: 관측성, 모니터링, 품질관리

  • 💡 [발견] 도메인 적합성 기준으로 기능 도입 여부 결정

  • OMC 전체 도입을 불필요하다고 판단한 근거는 '코드 개발 전문 영역'과 도메인 부적합성. 즉 도입 결정은 기능의 도메인 적합성으로 가늠함.
  • 태그: 의사결정기준, 도메인적합성

  • 🔄 [개선] 프롬프트 총량·응답량 로그로 비용·효율 평가

  • 프롬프트 문자수와 응답 문자수, 호출 수 등을 기록해 비용·지연·효율을 정량화하고 향후 라우팅·모델선택 정책에 반영함.
  • 태그: 측정가능성, 비용관리

2026-03-19

  • 🔧 [해결] 체리픽으로 부분 도입
  • 전체 OMC 도입이 도메인에 맞지 않을 때는 핵심 가치 있는 기능만 선별(cherry-pick)해 도입한다 — 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 세 가지만 적용하여 복잡도와 리스크를 줄임.
  • 태그: 모듈화, 리스크관리, 최소적용

  • 🔧 [해결] 모델 라우팅으로 역할 분리

  • 작업 특성에 따라 모델을 역할별로 라우팅(심층 판단용 / 분석·디버깅용 / 빠른 실행용)하여 처리 효율과 응답 품질을 높였다. 각 모델에 적합한 작업 수를 미리 설계해 배치한다.
  • 태그: 모델선택, 성능최적화, 역할분리

  • ⚖️ [판단] 전체 도입 vs 선택적 도입 — 도메인 적합성 기준

  • 플랫폼 전체 방식(OMC)을 무조건 도입하지 않고, '코드 개발 전문성 vs OMC 도메인 적합성'을 기준으로 판단해 불필요하면 부분 도입을 선택했다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출률 차이 관찰

  • 동일 세션에서 모델별 호출 수와 평균 레이턴시가 크게 달라짐(github-copilot/gpt-5-mini는 평균 레이턴시가 높고, claude-sonnet은 짧음). 작업 유형에 따라 모델 성능 특성이 상이함을 발견.
  • 태그: 관측, 모델성능

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 단일 에이전트 집약에서 여러 특화 에이전트(analyst, report-writer, pipeline-debugger-deep 등)로 확장해 책임을 분리하고 병렬 처리량을 늘림 — 확장 전 8개→확장 후 12개로 운영 효율 개선.
  • 태그: 아키텍처개선, 스케일링

  • 📚 [교훈] 데이터·문서 확인 후 정정 프로세스 필요

  • 초기에 gpt-5.4 mini 공개 여부를 잘못 기록했다가 정정함. 외부 문서(공식 Models 문서) 확인 절차를 명시화해야 실수·정정 반복을 줄일 수 있음.
  • 태그: 검증절차, 문서관리

  • 🔧 [해결] preemptive-compaction으로 자원관리

  • 세션에서 preemptive-compaction 훅을 도입하여 프롬프트·응답 총량을 관리하고 모델 호출 비용 및 메모리 부담을 줄이는 방식으로 운영 안정성을 향상시켰다.
  • 태그: 자원관리, 운영안정성

  • 💡 [발견] 세션 통계로 운영병목·에러 패턴 파악 가능

  • 총 호출·성공률·프롬프트/응답 총량·에러 수 같은 메트릭을 주기적으로 기록하면 특정 모델의 실패율·지연·비용 요인을 빠르게 식별할 수 있다(예: 일부 모델 호출 0% 성공률 표기).
  • 태그: 모니터링, 운영관측

2026-03-19

  • 🔧 [해결] 큰 시스템 도입 대신 핵심 기능만 체리픽해서 먼저 적용
  • OMC 전체 도입은 도메인 불일치로 불필요하다고 판단하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 '핵심 3가지'만 선택적으로 적용해 비용과 리스크를 줄임.
  • 태그: 도입전략, 리스크관리, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할(심층 판단·분석·빠른 실행) 기준으로 분리

  • 에이전트 확장 시 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델/에이전트를 역할 기준으로 3단계 라우팅하여 책임과 성능 기대치를 명확히 함.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 프롬프트·응답 규모와 모델별 레이턴시는 운영 비용에 직접 영향

  • 세션 통계에서 프롬프트 총량·응답 총량과 모델별 평균 레이턴시가 기록되어 있어, 호출 수·문자량·레이턴시 기반으로 비용·성능 관리를 할 수 있음(예: sonnet 레이턴시 낮음).
  • 태그: 메트릭, 운영관찰

  • 🔄 [개선] 에이전트 확장 전후 결과를 짧게 로그로 남겨 추적 가능하게 함

  • 에이전트 수를 8→12로 확장하면서 완료 작업·의사결정 로그·수정 파일 목록을 함께 남겨 변경의 근거와 검증 명령을 명확히 함 — 변경 추적 워크플로우 개선.
  • 태그: 변경관리, 추적성, 운영

  • 📚 [교훈] 공식 문서 확인은 반복 검증이 필요하다

  • 08:14에 gpt-5.4 mini 공개 확인 불가로 기록했다가 08:16에 정정하여 공개 표기가 확인됨 — 외부 문서 정보는 초기 확인 이후 재확인 절차를 둬야 혼선 방지.
  • 태그: 검증절차, 정보신뢰성

  • 🔧 [해결] 도메인·역량 불일치 시 '선택적 적용'으로 낭비 회피

  • OMC를 전체 적용하려다 도메인 미스매치로 취소하고, 해당 팀에서 실제 활용 가능한 부분만 골라 적용함으로써 개발 자원 낭비를 줄임.
  • 태그: 리소스절약, 적합성검토

  • 💡 [발견] 금융·시장 Q&A에서 누락 대응은 빠른 사과와 보완으로 신뢰 회복

  • Vg(벤쳐글로벌) 누락에 대해 즉시 사과하고 빠르게 별도 섹션으로 보완 설명해 사용자 신뢰를 회복 — 사용자 문의 응대 패턴으로 유용.
  • 태그: 고객응대, 신뢰회복

2026-03-19

  • 🔧 [해결] 특정 기능은 전체 도입 대신 체리픽으로 적용
  • OMC 전면 도입이 도메인에 맞지 않을 때, 전체 적용 대신 도메인에 맞는 핵심 3가지를 선별(cherry-pick)해 구현으로 해결하여 개발 비용과 복잡도를 줄임.
  • 태그: 의사결정, 범위축소, 비용절감

  • 🔧 [해결] 모델별 역할 분리로 라우팅 성능 확보

  • 에이전트·모델을 역할(심층판단/분석·디버깅/빠른실행)로 분리해 요청 유형에 맞는 모델로 라우팅함으로써 응답 속도와 품질을 동시에 개선함.
  • 태그: 아키텍처, 모델라우팅, 성능

  • ⚖️ [판단] 도입 여부는 도메인 적합성으로 결정

  • 새 기법(예: OMC)을 도입할 때는 조직의 주 업무(코드 개발 등)와 도메인 적합성을 우선 평가하여 전체 도입 vs 일부 채택을 판단함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·성공률 차이 관찰

  • 같은 작업 내에서도 모델(예: copilot vs sonnet)의 평균 레이턴시와 호출 성공률이 달라, 작업 유형별로 최적 모델이 존재함을 확인함.
  • 태그: 모델관찰, 성능계측

  • 🔄 [개선] preemptive-compaction으로 프롬프트 비용 절감

  • 프롬프트/세션 데이터를 미리 압축(preemptive-compaction)하는 훅을 만들어 LLM 호출시 전송량을 줄이고 비용·지연을 개선함.
  • 태그: 비용절감, 프롬프트최적화, 자동화

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 단일 에이전트 대신 전문화된 에이전트(analyst, report-writer, pipeline-debugger 등)를 추가해 책임을 분리하고 기능 확장성을 높임.
  • 태그: 조직구조, 스케일링, 책임분리

  • 📚 [교훈] 문서·공식 자료 확인이 의사결정의 핵심

  • 초기 판단(공개여부 불확실)을 바로 확정하지 않고 공식 문서 재확인 후 정정함으로써 정보 기반 결정을 해야 함을 재확인함.
  • 태그: 절차, 검증, 리스크회피

  • 📚 [교훈] 통계 지표(호출수·성공률·에러)로 시스템 건강 모니터링

  • LLM 호출 통계(총 호출·성공률·에러 수·프롬프트량 등)를 정기적으로 기록·검토해 문제 점검과 개선 우선순위를 결정해야 함.
  • 태그: 모니터링, 운영지표, 장애감지

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전체 도입 대신 체리픽 3가지만 적용
  • OMC 전체 도입이 도메인에 맞지 않으면 전면 적용을 피하고, 가치가 높은 3가지 기능(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선정해 단계적으로 도입해 리스크와 작업량을 줄임.
  • 태그: 리스크관리, 점진적도입, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 성능·지연을 최적화

  • 심층 판단, 분석·디버깅, 빠른 실행 같은 역할 기준으로 모델군을 나누어(Opus/Sonnet/Haiku) 각각의 특성(정확도 vs 속도)에 맞는 요청을 보냄으로써 전체 파이프라인 효율을 개선함.
  • 태그: 모델배치, 성능최적화

  • 💡 [발견] 로컬 CLI와 config로 모델 오버라이드 가능

  • Codex CLI는 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델을 손쉽게 변경할 수 있음 — 운영환경에서 유용한 즉시 전환 경로가 됨.
  • 태그: 툴체인, 운영편의

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 안정성 및 책임 분담 향상

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 특정 책임을 분리함으로써 각 에이전트의 목표가 명확해지고 병렬 처리·디버깅이 용이해짐.
  • 태그: 아키텍처, 운영효율

  • 📚 [교훈] 모델 성공률과 호출 통계를 반드시 모니터링하라

  • 세션별 총 호출·성공률·레이턴시·에러 수를 기록해 문제(예: 어떤 모델이 0% 성공인지)를 빠르게 식별하고, 실패 모델은 원인 조사(인증·호환성·네트워크) 후 격리하거나 라우팅에서 제외해야 함.
  • 태그: 관찰성, 운영모니터링

  • 🔧 [해결] 회복 리포트 자동화로 수작업 부담을 줄임

  • recovery 리포트 자동화 스크립트를 도입해 장애·복구 요약을 자동으로 생성하면 수동 리포트 작성 시간과 누락을 줄이고 대응 일관성을 높일 수 있음.
  • 태그: 자동화, 운영

  • ⚖️ [판단] 공식 문서와 로컬 확인 결과가 충돌하면 양쪽 근거를 빠르게 정정·기록

  • 초기에 공식 OpenAI 문서에서 gpt-5.4-mini 공개 확인 불가로 기록했다가 정정됨. 문서·CLI 확인 결과가 달라질 경우 즉시 의사결정 로그에 정정·근거를 남겨 혼선을 줄임.
  • 태그: 정확성, 문서관리

  • 💡 [발견] 전략적 응답은 사과 + 전체 맵 제공으로 신뢰 회복

  • 사용자 불만(특정 종목 미소개)에 대해 먼저 사과한 뒤, 관련 섹터 전체 맵과 대표 종목을 정리해 제공하면 사용자 신뢰를 빠르게 회복하고 정보 가치를 높일 수 있음.
  • 태그: UX, 커뮤니케이션

  • 📚 [교훈] 다양한 모델의 실패 케이스는 로그로 남겨 후속 개선에 사용하라

  • 세션에 일부 모델 호출이 0% 성공(예: gpt-5-mini, qwen2.5 등)했으므로 실패 원인과 재현 조건을 기록해 모델 교체 정책, 재시도 로직, 혹은 폴백 경로(다른 모델) 설계에 반영해야 함.
  • 태그: 사후분석, 폴백전략

  • 🔄 [개선] 역할별 에이전트에 전담 도구(스크립트·훅) 연결

  • 새로 만든 에이전트들과 연계해 scripts/session_learner.py, preemptive-compaction.sh 같은 전용 스크립트·훅을 연결하면 재현성 있는 학습·정리·정리 작업을 자동화할 수 있음.
  • 태그: 자동화, 재현성

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 적용
  • 전체 OMC 도입이 도메인과 맞지 않을 때 모든 기능을 적용하지 않고, 도메인에 적합한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 비용을 줄이고 효과를 유지했다.
  • 태그: 성범위축소, 우선순위, 리스크절감

  • ⚖️ [판단] 모델 라우팅은 '판단 깊이'에 따라 분리

  • 에이전트 역할을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 구분해, 작업 성격(심층 vs 분석 vs 빠른 실행)을 기준으로 모델/에이전트를 라우팅하기로 결정함.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 프롬프트·응답 볼륨은 모델 구성과 호출 수에 민감

  • 세션별 프롬프트 총량·응답 총량과 모델별 호출 통계를 기록해보니 특정 모델(cliproxy/claude-sonnet-4-6)이 호출 많고 레이턴시 낮아 분담이 효과적이었다는 연결 고리를 확인함.
  • 태그: 측정, 모니터링, 성능

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 8개 에이전트에서 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등 4개를 추가해 12개로 확장하여 역할을 더 세분화하고 전문화를 통해 작업 충돌을 줄임.
  • 태그: 조직화, 확장, 전문화

  • 🔧 [해결] 모델 공개 여부 불확실 시 로컬 검증 우선

  • 공식 문서에서 gpt-5.4-mini 공개 여부가 불명확할 때 처음에는 공개 불가로 보고했으나, 로컬 Codex의 모델 오버라이드 지원을 확인해 바로 적용 가능성을 검증함—문서 불확실성 대응은 로컬 기능 검증으로 보완.
  • 태그: 검증우선, 운영대응

  • 📚 [교훈] 초기 정보(문서)와 정정된 정보가 공존할 때 기록·정정 프로세스 필요

  • 08:15에 공개 불가로 기록한 뒤 08:16에 공식 문서에서 공개 표기가 확인되어 정정 로그가 추가됨. 초기 판단과 정정 결과를 명확히 기록해야 혼선과 반복 확인을 줄일 수 있음.
  • 태그: 문서화, 정정프로세스, 투명성

  • 💡 [발견] 전쟁·지정학 이슈는 특정 섹터에 즉각적·차별적 영향

  • 대화에서 이란 전쟁 관련 소식이 방산·에너지·금·사이버보안·해운·비료 등 섹터별로 수혜/충격을 다르게 주는 것으로 정리되었고, 단기·중기 수혜 종목을 섹터별로 맵핑하는 유용한 패턴을 확인함.
  • 태그: 도메인지식, 투자인사이트

  • 🔧 [해결] 정보 과잉 상황에서 섹터 맵으로 요약 제공

  • 사용자 불만(특정 종목 누락)에 대해 개별 종목 대응 대신 '전쟁 수혜주 전체 맵' 형태로 섹터별 요약을 제공해 빠르게 전체 맥락과 대표종목을 전달함.
  • 태그: 대응패턴, 커뮤니케이션, 요약

2026-03-19

  • 🔧 [해결] 도메인 비적합할 때는 체리픽으로 핵심만 도입
  • 전체 OMC 도입이 불필요하다고 판단될 때, 관련 기능 중에서 도메인에 맞는 3가지를 선별(cherry-pick)해 적용함(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 전체 교체 대신 부분 도입으로 비용·리스크를 줄임.
  • 태그: OMC, 부분도입, 리스크관리

  • 🔧 [해결] 모델 특성에 따라 라우팅 계층 분리

  • 작업 성격에 따라 모델 라우팅을 3단계로 설계: 심층 판단(Opus) / 분석·디버깅(Sonnet) / 빠른 실행(Haiku). 각 계층에 맞는 에이전트를 배치해 처리 효율과 응답 품질을 최적화함.
  • 태그: 모델라우팅, 아키텍처, 성능최적화

  • ⚖️ [판단] 도입 여부 판단은 도메인 적합성 기준으로 결정

  • 새 시스템(OMC) 도입을 결정할 때 '도메인 적합성'을 우선 기준으로 삼음. 도메인과 맞지 않으면 전면 도입 대신 핵심 기능만 선별 적용.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 작업별 LLM 호출 비율과 레이턴시 차이 관찰

  • 세션별/모델별 호출 수와 평균 레이턴시가 크게 다름(예: github-copilot/gpt-5-mini는 호출적고 레이턴시가 큼, claude-sonnet 호출 많고 레이턴시 작음). 모델 선택이 워크플로우 성능에 직접 영향.
  • 태그: 관찰, LLM성능, 모델선택

  • 🔄 [개선] 에이전트 확장으로 역할 분담 세분화

  • 에이전트를 8개에서 12개로 확장하여 책임을 분리(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등). 단일 에이전트의 과부하를 줄이고 기능 전문화를 통해 디버깅/리포트 자동화를 개선함.
  • 태그: 운영개선, 에이전트관리, 스케일링

  • 🔧 [해결] 로컬 툴의 모델 오버라이드로 신속한 실험 허용

  • 공식 문서로 공개 여부가 불확실한 모델을 실험할 때는 로컬 Codex의 -m/--model 또는 config.toml의 model 키를 사용해 모델 오버라이드를 적용, 빠르게 대체 모델로 테스트함.
  • 태그: 실험방법, 모델오버라이드, 개발상편의성

  • 📚 [교훈] 초기정확도 정보 없이 단정하지 말고 즉시 정정 기록

  • 08:15에 gpt-5.4-mini 공개 불가로 기록했다가 08:16에 정정해 공개 표기가 확인됨. 불확실한 정보는 임시 표기 후 추가 확인 시 즉시 수정·로그 남기기(정정 절차 유지).
  • 태그: 운영절차, 정정로그, 정보검증

  • 💡 [발견] 도메인 사건이 섹터별 투자 수혜로 연결됨

  • 외부 사건(예: 이란 관련 군사·에너지 사건)이 특정 섹터(방산, 에너지, 금, 사이버보안, 비료 등)와 종목의 성과로 직접 연결됨을 정리함 — 사건→수요·공급 충격→섹터수혜라는 인과 흐름을 재현함.
  • 태그: 금융분석, 사건영향, 섹터리서치

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 적용
  • 프로젝트 전체 OMC 도입이 불필요할 때, 도메인에 맞는 세부 기능 3가지만 선별(cherry-pick)해 적용하여 개발 비용과 복잡도를 낮춤(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 범위결정, 효율화

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단·분석·빠른 실행 등 역할을 기준으로 모델/에이전트를 라우팅(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행)하면 작업 성격에 맞는 성능·지연 균형을 확보할 수 있음.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 모델별 레이턴시·성공률 차이는 운영 정책에 영향

  • 세션 통계에서 모델별 호출수와 평균 레이턴시가 크게 다른데(예: gpt-5-mini 호출은 적고 실패율 존재), 이를 근거로 모델 배치·재시도·대체 정책을 설계해야 함.
  • 태그: 관찰, 운영

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 대응

  • 기능 확장 필요 시 기존 에이전트 단순 증설 대신 역할을 세분화해 새로운 에이전트를 추가(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)하면 책임 분리와 유지보수성이 개선됨.
  • 태그: 운영모델, 확장성

  • 🔧 [해결] 모델 가용성 불확실성에 대해 로컬 오버라이드 경로 사용

  • 공식 문서의 공개 여부가 불확실할 때 로컬 CLI/config 오버라이드(-m/--model, config.toml)를 확인·활용해 필요한 모델로 전환하거나 테스트할 수 있음.
  • 태그: 리스크완화, 배포

  • 📚 [교훈] 정보 정정·검증을 즉시 기록하라

  • 초기 답변에서 모델 공개 여부를 불확실하다고 기록했다가 곧 정정된 사례처럼, 외부 정보는 확인 즉시 의사결정 로그에 남겨 혼선과 재작업을 줄여야 함.
  • 태그: 문서화, 품질관리

  • 💡 [발견] 전쟁·지정학 이벤트는 특정 섹터에 직결된 투자 신호를 만든다

  • 대화 분석에서 전쟁 관련 뉴스는 방산·에너지·금·사이버보안·해운·비료·우라늄 등 섹터별로 즉각적·가시적 수혜를 발생시켰음 — 이벤트→섹터 맵핑을 자동화하면 리서치 생산성이 올라감.
  • 태그: 도메인지식, 데이터연결

  • 🔧 [해결] 세부 리포트는 섹터별 템플릿으로 표준화

  • 전쟁 수혜주처럼 범주가 정해진 리포트는 섹터별 핵심 지표(대표종목, 핵심이슈, YTD 수익률, 핵심 사건)를 템플릿화해 빠르게 생성하고 반복 작업을 줄임.
  • 태그: 문서자동화, 템플릿

  • 📚 [교훈] 통계 지표(호출수·프롬프트량 등)를 주기적으로 모니터링하라

  • 세션별 LLM 호출 통계를 누적해 성공률·에러·지연 트렌드를 관찰하면 성능 저하나 비용 급증을 조기 발견할 수 있음(예: 에러 증가 시 모델 교체·리트라이 정책 검토).
  • 태그: 관측, 운영

  • 🔄 [개선] 작업 시작·수정·결정 시 자동 로그 규칙 적용

  • 세션 로그에 완료 작업, 의사결정, 수정 파일 목록을 일관되게 남긴 것처럼 작업 워크플로우에 '시작/결정/파일변경/종료' 로그 규칙을 적용하면 추적성과 책임소재가 명확해짐.
  • 태그: 프로세스, 거버넌스

2026-03-19

  • 🔧 [해결] 도메인 불일치시 체리픽(선택적 도입)
  • 전체 시스템을 도입하기보다는 도메인 적합도를 판단해 관련성 높은 기능 3가지만 선별(cherry-pick)해 구현함으로써 개발 비용과 리스크를 줄임. 예: OMC 전면 도입 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction만 적용.
  • 태그: 도입전략, 단계적적용, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 결정

  • 모델을 선택할 때 '심층 판단 / 분석·디버깅 / 빠른 실행' 같은 역할 분리 기준으로 라우팅 정책을 설계(예: Opus=심층, Sonnet=분석, Haiku=빠른실행). 성능·레이턴시·정확도 요구치에 따라 모델을 역할에 매핑.
  • 태그: 모델선택, 라운팅, 운영정책

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • 공식 문서 확인 흐름에서 Codex CLI는 -m/--model 플래그 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함. 즉 로컬 환경에서 모델 전환이 가능함.
  • 태그: 도구특성, 운영환경

  • 🔧 [해결] 에이전트 확장은 역할 추가로 세분화

  • 에이전트 수를 단순 증설이 아닌 역할 분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)로 확장해 책임과 기능을 명확히 함으로써 유지보수성과 효율을 높임.
  • 태그: 아키텍처, 에이전트운영

  • 🔄 [개선] 대규모 LLM 호출 통계 모니터링

  • 호출 수·성공률·프롬프트/응답 총량·에러 수·모델별 레이턴시 등을 정기 집계해 운영 지표로 삼음. 이를 통해 문제(에러 원인, 레이턴시 높은 모델)를 빠르게 발견하고 조치 가능.
  • 태그: 관측성, 운영모니터링, 지표

  • 📚 [교훈] 초기 정보 부정확성은 빠른 정정으로 보완

  • 08:14에 공개 여부를 확인 못했다가 08:16에 정정해 문서 상태를 업데이트한 사례처럼, 외부 사실 확인에 불확실성이 있으면 신속히 재확인하고 의사결정 로그를 정정해야 함.
  • 태그: 운영절차, 정정절차, 사실검증

  • 💡 [발견] 전쟁·지정학 이슈가 섹터별 차등 수혜로 연결됨

  • 지정학적 사건(예: 이란 관련 사건, Shah 가스전 피격)이 방산·에너지·금·사이버보안·해운·비료 등 특정 섹터의 수혜로 직결되는 패턴을 확인. 투자 추천이나 리서치에서 사건→섹터 맵핑을 활용할 수 있음.
  • 태그: 도메인인사이트, 리서치패턴

  • 🔧 [해결] 우선순위 높은 자동화 스크립트부터 작성

  • 복구(recovery) 리포트 자동화 등 우선 효과가 큰 자동화 작업을 우선 시작해 반복적 수작업을 줄이고 추후 분석용 데이터(호출통계 등)를 확보함.
  • 태그: 자동화, 우선순위

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전체 도입 대신 체리픽으로 핵심만 적용
  • OMC(대규모 방식)가 전체에 맞지 않다고 판단되면 전면 도입하지 않고, 도메인에 맞는 핵심 기능(여기서는 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택적으로 체리픽해 적용한다. 비용·복잡도 절감과 빠른 가치 실현 목적.
  • 태그: 의사결정, 신속실행, 적용범위

  • 🔧 [해결] 모델 특성에 따라 라우팅 계층 분리

  • 작업 성격에 따라 모델 라우팅을 3단계로 나눔: 심층 판단은 Opus(심층 판단 2개), 분석·디버깅은 Sonnet(분석·디버깅 4개), 빠른 실행은 Haiku(빠른 실행 6개). 각 계층에 적합한 모델/에이전트를 연결해 효율과 응답속도 최적화.
  • 태그: 모델라우팅, 아키텍처, 성능

  • ⚖️ [판단] 공식 문서 확인이 우선 — 로컬 동작 지원은 보조 근거

  • 새 모델 공개 여부는 먼저 공식 제공 문서를 확인하고 결정한다. 로컬 도구(Codex CLI)가 모델 오버라이드나 변경을 지원하는 것은 보조 정보로 활용해 구현 가능성을 판단함.
  • 태그: 검증, 문서중심

  • 💡 [발견] 모델별 호출 성능 차이가 운영 설계에 영향

  • 세션 통계에서 모델별 평균 레이턴시와 호출 성공률이 크게 다르게 관측됨(예: gpt-5-mini 0% 성공률 표기 등). 이런 실측치는 라우팅 정책, 리트라이, 오류 핸들링 설계에 직접 반영되어야 한다.
  • 태그: 모니터링, 운영지표

  • 🔄 [개선] 실행 전후 경량 스크립트와 훅으로 상태 관리 자동화

  • preemptive-compaction 같은 훅 스크립트와 session_learner.py 같은 자동화 스크립트를 도입해 변경(에이전트 추가, 체리픽 적용) 후 상태 정리와 학습을 자동화함으로써 수작업 검증을 줄이고 재현성을 높임.
  • 태그: 자동화, 운영효율

  • 📚 [교훈] 대규모 도입은 도메인 적합성 먼저 확인

  • OMC 전면 도입을 시도했다가 도메인 불일치로 축소한 사례에서, 범용 솔루션은 도메인 전문성 부족으로 기대 효과를 내지 못할 수 있다는 교훈을 얻음. 앞으로는 도메인 적합성 체크리스트를 사전 적용하기로 함.
  • 태그: 리스크관리, 프로젝트거버넌스

  • 🔧 [해결] 고빈도 LLM 호출 통계로 모델 운영 정책 조정

  • 실제 호출량·성공률·레이턴시를 주기적으로 집계해(예: 총 호출, 성공률, 프롬프트·응답량) 어떤 모델을 더 많이 쓰고 어떤 모델을 교체/격리할지 결정하는 운영 루프를 만든다. 숫자 기반 판단으로 리소스 할당 최적화.
  • 태그: 데이터드리븐, 운영정책

  • 💡 [발견] 도메인별 섹터 맵핑이 추천 정확도에 기여

  • 대화에서 전쟁 수혜주(방산·에너지·금·사이버보안 등)을 섹터별로 맵핑해 제시했는데, 도메인 지식(사건→수혜섹터 연결)이 사용자 만족도를 높이고 추천의 설득력을 증가시킴.
  • 태그: 도메인지식, 추천시스템

2026-03-19

  • 🔧 [해결] 대형 프레임워크 전체 도입 대신 체리픽으로 필요한 부분만 가져오기
  • OMC(대형 프레임워크)를 전체 도입하기보다는 도메인에 맞지 않는 요소는 배제하고, 필요한 기능 3가지를 선별(cherry-pick)해 구현함으로써 개발 비용과 불필요한 복잡도를 줄였다.
  • 태그: 체리픽, 범위절제, 비용절감

  • ⚖️ [판단] 모델/에이전트 역할별 라우팅은 '업무 성격'과 '지연 허용치'로 결정

  • 심층 판단은 Opus에, 분석·디버깅은 Sonnet에, 빠른 실행은 Haiku에 배치하는 방식으로, 각 모델의 역할을 업무 성격과 응답 지연(레이턴시) 특성에 따라 나눴다.
  • 태그: 모델라우팅, 역할분리, 레이턴시

  • 💡 [발견] 프롬프트 총량 대비 응답량/성공률로 호출 효율을 파악

  • 세션별로 '프롬프트 총량', '응답 총량', '성공률', '모델별 레이턴시'를 수집해 어떤 모델이 비용/지연 대비 효율적인지 확인하는 메트릭을 적용함.
  • 태그: 관찰지표, 모니터링, 효율성

  • 🔄 [개선] 에이전트 확장과 역할 분화를 통한 처리량·전문화 향상

  • 기존 에이전트 수를 늘리고(8→12) 역할을 세분화(analyst, report-writer, pipeline-debugger-deep 등)하여 동시 처리량과 전문성을 높이는 워크플로우로 개선했다.
  • 태그: 에이전트확장, 역할분화, 스케일링

  • 🔧 [해결] 복구 리포트 자동화로 빠른 대응과 기록 보존

  • recovery 리포트 자동화 스크립트를 작성해 복구 과정의 보고와 증거 기록을 자동화함으로써 대응 속도와 감사 가능성을 높임.
  • 태그: 자동화, 복구, 감사

  • 📚 [교훈] 공식 문서 검증 없이 결론을 내리면 정정이 필요해진다

  • 초기에 'gpt-5.4 mini 공개 확인 불가'라고 기록했다가 이후 공식 문서에서 공개 표기를 확인하고 정정함. 외부 사실은 공식 소스로 즉시 검증해야 함을 보여줌.
  • 태그: 검증, 문서확인, 정정절차

  • ⚖️ [판단] 도메인 적합성 판단 기준으로 '전문성 적합성' 우선 적용

  • 기능 도입 여부를 결정할 때 프로젝트의 전문성(예: 코드 개발 전문 vs 도메인 전문성)을 우선 고려해 불필요한 도구 채택을 피함.
  • 태그: 의사결정기준, 도메인적합성

2026-03-19

  • 🔧 [해결] 대규모 모델 도입 대신 체리픽으로 핵심만 적용
  • OMC 전체 도입은 도메인 미스매치로 불필요하다고 판단하고, 필요한 3가지만 선별(cherry-pick)해 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 비용과 적합성 기준으로 부분 적용하는 방식으로 리스크와 개발 부담을 줄임.
  • 태그: 적용전략, 리스크관리, 효율화

  • 🔧 [해결] 모델 역할을 분리한 3단계 라우팅

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델/에이전트를 분리해 라우팅함으로써 각 모델의 강점을 최대로 활용하도록 설계.
  • 태그: 아키텍처, 모델라우팅, 성능최적화

  • ⚖️ [판단] 전체 도입 vs 부분 체리픽 판단 기준 — 도메인 적합성

  • 새 시스템을 전체 도입할지 일부만 적용할지 결정할 때 '코드 개발 전문성 여부' 같은 도메인 적합성을 우선 기준으로 삼아, 맞지 않으면 부분 적용을 선택함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 기능을 지원함

  • Codex CLI에서 -m/--model 플래그와 config.toml의 model 키로 로컬에서 모델 변경이 가능함을 확인 — 운영 환경에서 모델 실험·전환이 쉬움.
  • 태그: 도구특성, 운영유연성

  • 🔄 [개선] 에이전트 확장으로 역할 분화

  • 기존 에이전트 수를 늘려(8→12) analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임을 세분화하고 전문화된 처리 흐름을 만들었음.
  • 태그: 워크플로우, 조직화, 스케일링

  • 📚 [교훈] 문서·공식 정보 확인의 중요성 — 초기 정보 정정 사례

  • 08:14에 'gpt-5.4 mini 공개 불가'로 기록했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정함. 중요한 외부 사실은 빠르게 확인하고 로그로 정정 기록을 남겨야 함.
  • 태그: 검증문화, 정확성

  • 💡 [발견] LLM 호출 통계로 모델 성능·비용 인사이트 획득

  • 세션별 호출 수, 성공률, 프롬프트·응답 총량, 모델별 평균 레이턴시 등 지표를 수집해 어떤 모델이 비용/속도/신뢰성 측면에서 유리한지 판단할 수 있음.
  • 태그: 관찰, 모니터링, 비용관리

2026-03-19

  • 🔧 [해결] 체리픽으로 필요한 기능만 선택해 도입
  • OMC 방식 전체 도입 대신 도메인 적합성 판단 후 핵심 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 체리픽해 구현함으로써 불필요한 작업을 줄이고 가치 대비 개발 비용을 최적화함.
  • 태그: 체리픽, 최소변경, 효율성

  • ⚖️ [판단] 도메인 적합성으로 도구 도입 여부 결정

  • 새 프레임워크나 방법론을 도입할 때 팀의 주된 업무(예: 코드 개발)와 도구의 강점이 일치하는지 확인하여 전체 도입 vs 선별 도입을 결정함.
  • 태그: 도입기준, 도메인적합성

  • 💡 [발견] 모델 라우팅을 역할·목적별로 분리하면 성능·응답속도 최적화 가능

  • 세 모델(Opus/심층 판단, Sonnet/분석·디버깅, Haiku/빠른 실행)으로 역할을 분리해 호출 횟수와 레이턴시 특성에 맞게 라우팅하자 호출 효율과 응답 품질이 개선됨.
  • 태그: 모델라우팅, 역할분리, 성능

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화해 책임 분담

  • 기존 에이전트를 단순 확장하는 대신 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등으로 역할을 명확히 분리해 확장하면 유지보수성과 병렬작업 능력이 좋아짐.
  • 태그: 아키텍처, 스케일링, 책임분리

  • 💡 [발견] 로컬 CLI와 config로 모델 오버라이드 가능

  • Codex CLI는 -m/--model 및 config.toml의 model 키로 모델을 변경할 수 있어 공식 문서 공개 시점과 무관하게 로컬에서 테스트/전환이 가능함.
  • 태그: 툴사용팁, 모델오버라이드

  • 📚 [교훈] 초기 정보 불확실성은 정정 로그로 보완해야 함

  • 08:14에 공개 확인 불가라고 기록했다가 08:16에 문서에서 공개 표기 확인으로 정정한 사례처럼, 불확실한 초기 판단은 빠르게 재검증하고 수정 기록을 남겨 혼선을 줄여야 함.
  • 태그: 메타데이터, 정정절차, 투명성

  • 🔧 [해결] 프롬프트/호출 통계로 안정성·문제 지표 모니터링

  • 세션별 LLM 호출 총량·성공률·에러 수·모델별 레이턴시 통계를 수집해 모델 장애, 성능 편차, 불필요 호출을 빠르게 감지하고 대응함.
  • 태그: 모니터링, 운영

  • 🔧 [해결] 복구 리포트 자동화로 반복작업 제거

  • recovery 리포트 자동화 스크립트 작성을 시작해 수동 리포트 작성 시간을 줄이고 장애 복구 절차의 일관성을 높이려 함.
  • 태그: 자동화, 복구, 효율화

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 적용 범위 축소
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체 채택 대신 '필요한 기능 3가지'를 선별(cherry-pick)해 부분 적용함으로써 개발 비용과 복잡도를 줄였다. 목적에 맞는 최소 항목만 골라 적용하는 방식.
  • 태그: 체리픽, 범위조정, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단/분석·디버깅/빠른 실행 등 역할에 따라 모델 라우팅(예: Opus=심층, Sonnet=분석·디버깅, Haiku=빠른 실행)을 결정해 각 모델의 강점을 최대한 활용했다. 성능·지연·업무성격을 기준으로 판단.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 프롬프트 대비 응답비율과 모델별 레이턴시 차이

  • 세션 통계에서 프롬프트 총량 대비 응답 총량, 호출별 평균 레이턴시가 모델마다 크게 달라 모델 선택이 비용·지연에 직접 영향됨을 확인했다(예: claude-sonnet 레이턴시 짧음, copilot 긴 편).
  • 태그: 관찰, 성능계측, 모델비교

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 에이전트(8개)를 12개로 확장해 역할을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)함으로써 책임 분리와 병렬처리 효율을 높였다.
  • 태그: 아키텍처, 확장, 책임분리

  • 🔧 [해결] preemptive-compaction으로 리소스 관리 최적화

  • preemptive-compaction 훅을 도입해 실행 전 사전 정리/압축을 수행함으로써 런타임 부하를 줄이고 안정성을 향상시켰다. 실행 전 상태 정리→작업 수행 흐름.
  • 태그: 성능, 리소스관리, 사전정리

  • ⚖️ [판단] 공식 문서 확인 후 로컬 툴 기능 재검증

  • gpt-5.4 mini 공개 여부에 대해 공식 문서로 먼저 확인하고, 동시에 Codex CLI의 모델 오버라이드 지원(-m/--model, config.toml)을 확인해 실제 적용 가능성을 판단했다. 외부 문서 + 로컬 테스트 병행 판단 기준.
  • 태그: 검증, 문서검토, 로컬확인

  • 💡 [발견] 전쟁 관련 이벤트가 섹터별 수익률과 종목별 반응을 유발

  • 지정학적 사건(예: 이란 관련)으로 방산·에너지·금·해운·비료·사이버보안 등 섹터별로 상이한 수혜가 발생했고, 특정 종목들의 즉각적 급등(예: PLTR)과 장기 백로그 증가(LMT, RTX 등)를 관찰했다.
  • 태그: 도메인지식, 이벤트영향, 섹터분석

  • 📚 [교훈] 정정·추가 확인을 즉시 기록하라

  • 08:15에 공개 불가로 기록했다가 08:16에 문서상 공개 표기 확인으로 정정 발생 — 문서/결정 변경이 있으면 즉시 의사결정 로그에 정정 기록을 남기고 파생 영향(호출 통계·스크립트 변경 등)을 업데이트해야 한다.
  • 태그: 절차, 기록, 정정

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전체 도입 대신 체리픽
  • OMC 방식 전체 도입이 도메인에 맞지 않을 때는 관련 기능 중 핵심 3가지만 선별(체리픽)해 구현하여 비용을 줄이고 효과를 확보함(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 비용절감, 도메인적합성, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할별 가중치로 결정

  • 에이전트/모델 라우팅을 결정할 때 심층 판단용, 분석·디버깅용, 빠른 실행용으로 모델 역할을 분리(예: Opus/ Sonnet/ Haiku)하고 각 역할에 맞는 호출 수·타임아웃·에이전시를 배정함.
  • 태그: 모델라우팅, 역할분리, 운영정책

  • 💡 [발견] Codex CLI는 로컬에서 모델 오버라이드를 지원한다

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키를 통해 로컬에서 모델을 변경할 수 있음 — 문서 확인→설정 반영으로 운영 유연성 확보.
  • 태그: 도구기능, 설정, 운영유연성

  • 🔄 [개선] 에이전트 확장 시 역할별 세분화로 처리량↑

  • 에이전트를 단순 증설(8→12)할 때 단순 증가가 아닌 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 추가해 기능별 병렬화와 전문화를 통해 전체 처리량과 안정성을 향상시킴.
  • 태그: 스케일링, 아키텍처, 전문화

  • 🔧 [해결] 복구 리포트 자동화로 재현·대응 시간을 단축

  • recovery 리포트 자동화 스크립트를 작성해 에러 발견→리포트 생성→조치 권고의 흐름을 자동화함으로써 대응 반복 비용을 줄이고 추적 가능성을 높임.
  • 태그: 자동화, 복구, 운영

  • 💡 [발견] LLM 호출 통계로 모델별 성능·비용 인사이트 확보

  • 총 호출 수·성공률·프롬프트·응답량·평균 레이턴시를 모델별로 수집하면 어떤 모델이 빠르고 안정적인지, 비용 대비 효율이 어떤지 객관적으로 판단할 수 있음(예: sonnet 레이턴시 낮음).
  • 태그: 관측, 메트릭, 의사결정근거

  • 📚 [교훈] 초기 문서 확인 미흡이 잘못된 가정으로 이어짐

  • 08:14에 gpt-5.4 mini 공개 확인 불가로 판단했다가 08:16에 공식 문서에서 공개 표기를 확인함 — 중요한 외부 사실은 즉시 1차 문서(공식 리소스)로 확인해야 함.
  • 태그: 검증, 운영리스크, 문서확인

  • 🔄 [개선] 경량한 훅(preemptive-compaction)으로 런타임 부담 감소

  • preemptive-compaction 같은 경량 훅을 도입해 런타임 중 불필요한 상태를 미리 정리함으로써 호출 효율과 응답 안정성을 개선함.
  • 태그: 성능, 운영개선, 유지보수

  • ⚖️ [판단] 성공률·에러 수·프롬프트량을 함께 보아야 서비스 안정성 판단 가능

  • 단일 지표(예: 성공률)가 좋아도 에러 수·프롬프트 총량·응답량을 함께 보면 실제 부하·비용·신뢰도를 더 잘 판단할 수 있음(세션별 통계 비교로 결정).
  • 태그: 운영지표, 모니터링, 의사결정

  • 🔧 [해결] 에이전트별 특화 파일·스크립트로 책임 분리

  • 각 에이전트나 기능에 대응되는 문서·스크립트(예: vault-inspector-deep.md, session_learner.py, preemptive-compaction.sh)를 분리 생성하여 책임과 변경 범위를 명확히 하고 협업 충돌을 줄임.
  • 태그: 문서화, 책임분리, 협업

2026-03-19

  • 🔧 [해결] 모든 기능을 도입하지 않고 핵심만 체리픽한다
  • OMC 전체 도입이 도메인에 맞지 않을 때는 전체 채택 대신 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 복잡도를 줄임.
  • 태그: 체리픽, 범위관리, 비용절감

  • ⚖️ [판단] 모델 라우팅 기준은 역할·비용·지연으로 결정한다

  • 심층 판단, 분석·디버깅, 빠른 실행 등 역할에 따라 모델을 분류(예: Opus/ Sonnet/ Haiku)하고 각 모델의 강점(정확도 vs 속도)을 기준으로 라우팅 설계함.
  • 태그: 모델선택, 아키텍처, 성능균형

  • 🔄 [개선] 에이전트 기능을 세분화해 확장한다

  • 필요 기능을 별도 에이전트로 분리(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)해 책임을 명확히 하고 병렬 처리·유지보수를 용이하게 함.
  • 태그: 에이전트, 모듈화, 확장성

  • 📚 [교훈] 공식 문서 확인 후 결정을 정정하라

  • 초기에 gpt-5.4 mini 공개 확인 불가로 판단했다가 공식 Models 문서를 확인한 뒤 정정함 — 외부 공개 여부나 사안은 공식 소스로 재검증해야 함.
  • 태그: 검증, 실무절차, 문서확인

  • 🔄 [개선] 로컬 CLI 설정으로 모델 오버라이드를 지원하라

  • 로컬 Codex는 -m/--model 및 config.toml 의 model 키로 모델 변경을 지원하므로, 운영 측면에서 모델 전환·테스트를 쉽게 하도록 CLI와 설정을 활용함.
  • 태그: 운영, 설정관리, 테스트용이성

  • 💡 [발견] LLM 호출 통계는 운영 안정성과 비용지표가 된다

  • 총 호출수, 성공률, 프롬프트/응답 총량, 모델별 레이턴시를 정기적으로 기록해 모델 성능·비용·신뢰도 의사결정에 사용함.
  • 태그: 관측, 운영모니터링, 비용관리

  • 🔧 [해결] 사용자 불만은 범위를 넓혀 빠르게 보완 답변으로 처리한다

  • 사용자(Vg 관련) 불만에 대해 사과 후 빠르게 누락된 범주(전쟁 수혜주 전체 맵)를 정리해 제공함으로써 신뢰 회복과 요구 충족을 동시에 달성함.
  • 태그: 사용자응대, 런어웨이리커버리, 콘텐츠보완

  • 📚 [교훈] 부분 자동화(리포트·스크립트)는 조기 도입이 효율적이다

  • recovery 리포트 자동화 스크립트 작업을 시작한 사례처럼 반복 작업은 자동화로 옮기면 운영 부담과 에러를 줄일 수 있음.
  • 태그: 자동화, 운영효율, 작업표준화

2026-03-19

  • 🔧 [해결] 필요한 부분만 체리픽해서 도입
  • OMC 전체 도입 대신 도메인 적합성 검토 후 코드 개발에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용함으로써 도입 비용과 위험을 줄임
  • 태그: 체리픽, 리스크관리, 점진적도입

  • ⚖️ [판단] 도메인 적합성 우선 판단

  • 새 기법이나 프레임워크 도입 시 '도메인 적합성'을 첫 기준으로 삼아 전체 도입 대신 일부만 선택할지 결정(예: OMC는 전체 도입 불필요 → 3가지만 채택)
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 역할 분리의 효율성

  • 세부 로그에서 Opus/Sonnet/Haiku처럼 역할(심층 판단/분석·디버깅/빠른 실행)로 모델 라우팅하면 호출 비용·지연·성능 특성에 맞춰 워크로드를 분산할 수 있음
  • 태그: 모델라우팅, 성능최적화

  • 🔄 [개선] 에이전트 수평 확장으로 책임 분리

  • 기존 에이전트(8개)에서 역할을 세분화해 12개로 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)하여 각 기능의 책임을 명확히 하고 병렬 처리를 늘림
  • 태그: 아키텍처, 에이전트설계

  • 🔧 [해결] 로컬 CLI/설정으로 모델 오버라이드 지원

  • 공식 문서가 불명확할 때 로컬 Codex CLI(-m/--model)와 config.toml의 model 키를 활용해 원하는 모델로 오버라이드하여 테스트·배포 문제를 해결
  • 태그: 운영대응, 툴체인

  • 📚 [교훈] 문서 확인 후 정정 반복의 가치

  • 초기에는 gpt-5.4 mini 공개 확인 불가로 판단했다가 추가 확인으로 공개 표기 확인 → 중요한 사실은 여러 출처(공식 문서 재확인)로 검증해야 함
  • 태그: 검증절차, 정보확인

  • 🔧 [해결] 자동화 스크립트로 반복 작업 분리

  • recovery 리포트 자동화 스크립트 작성 시작처럼 반복·규칙적 보고는 스크립트로 분리해 사람 개입을 줄이고 일관성 유지
  • 태그: 자동화, 운영효율

  • 💡 [발견] LLM 호출 통계로 모델 선택 근거 확보

  • 모델별 호출수·성공률·평균 레이턴시를 수집해 어떤 모델을 주로 쓸지, 비용 대비 성능을 어떻게 배분할지 근거로 활용할 수 있음(예: sonnet 낮은 레이턴시)
  • 태그: 모니터링, 의사결정데이터

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽(선별) 적용
  • 전체 OMC 도입이 적합하지 않을 때 전체 채택 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 기능 3가지를 선별 적용하여 비용과 복잡도를 줄임.
  • 태그: 적용전략, 리스크관리

  • 🔧 [해결] 모델 특성에 따른 3단계 라우팅

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델/에이전트를 역할별로 라우팅하여 처리 효율과 응답 특성을 최적화함.
  • 태그: 아키텍처, 모델라우팅

  • ⚖️ [판단] 공식 문서 vs 로컬 확인 시 정정 우선

  • 초기 확인에서 불확실할 경우 로컬 도구(Codex CLI)에서 지원 확인 후, 공식 문서 상태가 확인되면 이를 기준으로 정정 결정을 내림—근거 우선의 의사결정 흐름.
  • 태그: 판단기준, 검증

  • 💡 [발견] 모델별 레이턴시와 호출 분포 차이

  • 같은 작업군에서도 모델마다 평균 레이턴시와 호출 비중이 크게 다름(예: cliproxy/claude-sonnet-4-6은 짧은 레이턴시로 다수 호출), 이를 기반으로 비용·성능 트레이드오프를 조정할 수 있음.
  • 태그: 관찰, 성능분석

  • 🔄 [개선] 자동화 스크립트로 반복 리포트·복구 작업 시작

  • recovery 리포트 자동화와 preemptive-compaction 훅을 추가하여 수동 재시작·정리 작업을 줄이고 복구 시간과 인적 오류를 감소시킴.
  • 태그: 자동화, 운영효율

  • 📚 [교훈] 범용 도입은 비용과 도메인 적합도를 고려하라

  • OMC를 전면 도입하려다 도메인(코드 개발) 불일치로 비효율 발생 → 부분 적용(체리픽)으로 전환. 범용 기술은 도메인 적합성 검증 후 단계적 도입이 안전함.
  • 태그: 교훈, 도입전략

  • 💡 [발견] 데이터·프롬프트 볼륨 대비 응답률·에러 상관 없음

  • 프롬프트 총량과 호출 수가 높아도 성공률은 모델·환경에 따라 98~100%로 유지되었고, 에러는 소수 발생—문제는 양보다 모델-환경 신뢰성에 더 영향받음.
  • 태그: 관찰, 신뢰성

  • 🔧 [해결] 사용자 불만(콘텐츠 누락)에 대한 빠른 보완 응답

  • 사용자 질문에서 특정 섹터(예: Vg)가 누락되었다는 지적이 나오면 즉시 사과 후 관련 섹터·종목을 포함한 전체 맵을 재정리하여 신뢰 회복 및 정보 보강을 실시.
  • 태그: 사용자응대, 콘텐츠보완

2026-03-19

  • 🔧 [해결] 핵심만 체리픽해서 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 전체 적용 대신 관련성 높은 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현한다. 비용·복잡도 줄이면서 가치 확보 가능.
  • 태그: 체리픽, 범위선정, 리스크관리

  • ⚖️ [판단] 모델 역할에 따른 3단계 라우팅

  • 에이전트 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델 라우팅을 분리해 작업 성격에 맞는 모델을 지정한다. 작업 특성으로 판단해 모델을 매핑하는 기준을 사용.
  • 태그: 모델선정, 라우팅, 역할분담

  • 💡 [발견] LLM 호출 통계로 안정성과 비용을 관찰

  • 총 호출 수, 성공률, 프롬프트/응답량, 모델별 레이턴시를 정기 수집하면 어떤 모델이 비용-성능 균형을 잘 맞추는지 파악할 수 있다. 에러/비정상 호출(성공률 0%)은 문제 지표로 식별됨.
  • 태그: 관측, 메트릭스, 운영

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅 도입

  • 대용량 프롬프트/출력 처리를 위해 처리 전후에 자동으로 compaction 스크립트를 실행하는 훅을 추가해 프롬프트 길이 관리와 비용 절감을 도모한다.
  • 태그: 프롬프트관리, 자동화, 비용절감

  • 🔧 [해결] 에이전트 확장으로 역할 분화

  • 단일 에이전트 집약 대신 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 늘려(8→12) 책임과 기능을 분리해 병렬 작업과 전문성 확보를 가능하게 함.
  • 태그: 아키텍처, 스케일링, 전문화

  • 📚 [교훈] 정보 변경 시 즉시 정정 로그 남기기

  • 초기 판단(예: gpt-5.4 mini 공개 여부)이 달라지면 정정 메시지를 남기고 관련 의사결정 로그를 업데이트했다. 불확실한 정보는 검증 후 의사결정으로 교체해야 함.
  • 태그: 정정절차, 투명성, 검증

  • ⚖️ [판단] 로컬 CLI 설정 우선 확인

  • 모델 변경 관련 질문에서 로컬 Codex는 -m/--model 및 config.toml을 통해 오버라이드 가능하므로 문서상 공개 여부와 별개로 로컬 설정으로 해결 가능한지 우선 확인했다.
  • 태그: 도구우선순위, 실무해결, 설정우선

  • 🔄 [개선] 자동 리포트 스크립트로 복구 보고 간소화

  • recovery 리포트 자동화 스크립트를 작성해 수동 보고 부담을 줄이고 반복적 리포트 작성 시간을 단축함. 자동화 시작은 로그에 명시해 추적 가능하게 함.
  • 태그: 자동화, 운영효율, 리포팅

2026-03-19

  • 🔧 [해결] 필요한 기능만 체리픽하여 부분 도입
  • OMC 전체 도입은 도메인 불일치로 불필요하다고 판단하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지만 선택적으로 적용하여 이득은 취하고 복잡도는 줄임.
  • 태그: 체리픽, 범위결정, 단계적도입

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)으로 역할을 기준해 모델 라우팅을 3단계로 구성함 — 기능별 모델 적합성 기준으로 선택.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델을 오버라이드할 수 있음을 확인함 — 공식 공개 여부와 별개로 로컬 설정으로 대체 가능.
  • 태그: 도구기능, 구성관리

  • 💡 [발견] 모델별 호출·지연 차이 존재

  • 같은 작업군에서 모델별 호출 횟수·성공률은 유사하나 평균 레이턴시는 크게 다름(예: gpt-5-mini 수백 ms~수만 ms, sonnet 계열은 낮음) — 성능에 따라 모델을 목적별로 배치해야 함.
  • 태그: 성능관찰, 모델비교

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분화

  • 에이전트 수를 8→12로 확장하고 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가하여 책임을 세분화함 — 문제별 전담 에이전트로 병목 완화와 전문성 확보.
  • 태그: 에이전트아키텍처, 확장전략

  • 🔧 [해결] 프롬프트·응답 통계로 안정성 판단

  • 총 호출·성공률·프롬프트/응답 총량·에러 수를 정기 집계해 모델 호출 안정성을 모니터링하고, 에러·성능 이슈가 발생하면 대상 모델·구성 변경을 검토함.
  • 태그: 모니터링, 운영지표

  • 📚 [교훈] 공식 문서 확인 후 정정·기록

  • 초기에는 gpt-5.4 mini 공개 여부를 확인하지 못했으나 이후 공식 Models 문서에서 공개 표기를 확인하여 의사결정 로그를 정정함 — 문서 기반 검증을 먼저 수행해야 함.
  • 태그: 검증절차, 문서중심

  • 🔧 [해결] 도메인 불일치 시 부분 적용으로 리스크 최소화

  • 도메인 적합성이 낮을 때 전체 도입 대신 유효한 서브셋만 도입(체리픽)하여 개발 비용과 유지리스크를 줄임 — 적용 가능성 우선 검증 후 확장.
  • 태그: 리스크관리, 체리픽

  • 💡 [발견] 시스템은 자동화 스크립트로 리커버리 준비

  • recovery 리포트 자동화 스크립트를 작성하기 시작하여 장애 대응을 코드화하려는 시도가 보임 — 자동 리포트로 복구 속도와 일관성 개선 기대.
  • 태그: 자동화, 운영복구

  • ⚖️ [판단] 대화 응답에서 범주화된 투자맵 제시

  • 사용자 불만(특정 종목 누락)에 대해 섹터별로 수익률·대표종목·핵심 이유를 정리해 제공함 — 문제 대응은 '요청 원인 파악 → 전체 맵 제시' 방식으로 신뢰 회복을 노림.
  • 태그: 사용자응대, 정보구조화

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 전체 도입 대신 핵심만 체리픽
  • OMC(전체 도입)가 도메인과 맞지 않으면 전면 적용하지 않고, 도메인에 맞는 핵심 기능 3가지만 골라(cherry-pick) 적용해 개발 비용과 복잡도를 줄이고 효과를 보장함.
  • 태그: 대상선정, 리스크절감, 단계적도입

  • 🔧 [해결] 모델 역할별 라우팅으로 작업 효율화

  • 모델을 역할(심층 판단 / 분석·디버깅 / 빠른 실행)로 구분해 라우팅하면 각 모델의 강점을 활용해 응답 품질과 레이턴시를 최적화함 (예: Opus/ Sonnet/ Haiku로 3단계 라우팅).
  • 태그: 모델라우팅, 성능최적화, 역할분리

  • ⚖️ [판단] 공식 문서 확인을 우선 판단 기준으로 사용

  • 모델 공개 여부나 중요한 사실은 공식 문서(공급자 문서)를 우선 확인해 판단하고, 로컬 도구의 지원 가능성은 보조 근거로 삼음 — 초기 불확실성은 정정 기록으로 남김.
  • 태그: 검증기준, 출처우선

  • 💡 [발견] 경량 모델(claude-sonnet-4-6)이 대량 호출에 유리

  • 세션 통계에서 호출량이 많은 작업은 레이턴시가 낮은 모델(cliproxy/claude-sonnet-4-6)에 집중되어 있어 대량 호출 시 비용·지연 이점이 나타남.
  • 태그: 모델특성, 성능관찰

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅 도입으로 파이프라인 안정화

  • preemptive-compaction 스크립트/훅을 만들어 워크플로우 전 단계에서 데이터·상태를 미리 정리하면 후속 작업 실패 확률을 낮추고 리커버리 비용을 줄임.
  • 태그: 파이프라인, 자동화, 안정성

  • 🔄 [개선] 에이전트 확장 대신 역할 추가로 기능 세분화

  • 에이전트 수를 늘릴 때 단순 복제가 아닌 역할(analyst, report-writer, pipeline-debugger 등)을 추가해 책임을 명확히 하면 유지보수성과 진단 효율이 향상됨.
  • 태그: 조직구조, 책임분리

  • 📚 [교훈] 초기 사실 진술은 근거 확보 후에 — 정정 로그 남기기

  • 08:15에 '공개 확인 불가'라 발표했다가 08:16에 정정한 사례처럼, 불확실한 사실은 바로 단정하지 말고 확인 후 발표하며 정정 내역을 의사결정 로그에 남겨 투명성 유지.
  • 태그: 커뮤니케이션, 검증, 투명성

  • 🔧 [해결] 토픽(예: 전쟁 수혜주)을 섹터 맵으로 정리해 전달

  • 사용자 질문에 대해 개별 종목 대신 섹터별 영향도와 대표 종목을 표·목록 형태로 정리하면 빠르게 전체 맥락을 제공하고 추후 심화 분석으로 이어가기 쉬움.
  • 태그: 정보구성, 투자리서치, 응답템플릿

2026-03-19

  • 🔧 [해결] 필요한 기능만 체리픽해서 도입
  • 전체 OMC 접근법을 도입하지 않고 도메인 적합한 핵심 3가지를 선택(cherry-pick)해 구현함 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction으로 비용과 복잡도 절감
  • 태그: 체리픽, 범위결정, 단계적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단(Opus)·분석·디버깅(Sonnet)·빠른 실행(Haiku)처럼 모델을 역할(심층/분석/실행) 기준으로 라우팅하면 효율성과 응답속도 균형 가능
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 모델별 레이턴시·호출 특성 차이 존재

  • 같은 작업군이라도 모델별 평균 레이턴시와 호출량이 상이하므로(예: copilot 긴 지연 vs sonnet 짧은 지연) 역할에 맞춰 모델 할당 시 성능 개선 효과 확인
  • 태그: 측정, 성능관찰

  • 🔄 [개선] 에이전트 수평확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 늘려 전문화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)를 진행함 — 책임 분리로 유지보수·병렬처리 개선
  • 태그: 아키텍처, 스케일링, 전문화

  • 🔧 [해결] 로컬 툴로 모델 오버라이드 지원 확인 후 즉시 적용

  • Codex CLI의 -m/--model 및 config.toml 모델 키로 로컬에서 모델 변경 가능함을 확인해 환경 제어성을 확보, 문서 불확실성 발생시 로컬 설정으로 우회
  • 태그: 운영유지, 모델관리

  • 💡 [발견] 문서·현황은 반복 점검으로 정정 발생

  • 08:15에 공개 불가로 기록했으나 08:16에 정정해 gpt-5.4-mini 공개 표기 확인 — 빠른 사실 확인과 로그 갱신의 중요성 확인
  • 태그: 문서관리, 정정절차

  • 📚 [교훈] 대화 응답 범위와 사용자의 기대 차이

  • 질문(Q1)에서 특정 종목 누락으로 사용자 불만 발생 → 답변 범위(에너지 위주)와 기대(특정 종목 포함)를 맞추지 못함 → 향후 섹터/종목 누락 방지용 체크리스트 필요
  • 태그: 사용자커뮤니케이션, 검토체크리스트

  • 🔄 [개선] 리포트·리커버리 자동화 도입

  • recovery 리포트 자동화 스크립트 작업 시작과 preemptive-compaction 훅 추가로 수동 리포트·정리 작업을 자동화해 운영 효율화 추진
  • 태그: 자동화, 운영효율

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 핵심만 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 세 가지만 선택해 구현하여 비용과 리스크를 줄임.
  • 태그: 체리픽, 비용절감, 도메인_적합성

  • ⚖️ [판단] 모델 라우팅은 역할·지연 기준으로 분리

  • 모델을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 나눠 각 모델의 강점(정밀성 vs 속도)에 따라 라우팅함 — 성능·지연·작업 성격을 기준으로 결정.
  • 태그: 모델_라우팅, 성능기준, 지연

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • 공식 문서 확인과 정정 과정을 통해 Codex CLI가 -m/--model과 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함.
  • 태그: 도구_기능, 검증, 정정

  • 🔄 [개선] 에이전트 확장으로 역할 전담화

  • 기존 8개 에이전트를 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임 분리와 전문화로 처리량과 진단 깊이를 개선함.
  • 태그: 아키텍처, 전문화, 스케일링

  • 🔧 [해결] 복구 리포트 자동화로 반복 작업 제거

  • recovery 리포트 자동화 스크립트를 작성해 수작업 리포트 생성을 줄이고 장애 대응 반복 비용을 낮춤.
  • 태그: 자동화, 운영효율

  • 📚 [교훈] 초기 주장 정정은 빠르게 기록하고 공유

  • gpt-5.4-mini 공개 여부에 대해 초기엔 확인 불가로 기록했으나 이후 문서에서 공개 표기 확인되어 정정함 — 변경사항을 즉시 의사결정 로그에 남기니 혼선 최소화.
  • 태그: 문서화, 투명성, 정정

  • 💡 [발견] 전시상황은 특정 섹터에 가시적 영향

  • 대화 분석에서 전쟁 관련 이벤트가 방산·에너지·금·사이버보안·해운·비료 등 섹터별로 즉각적 수혜를 주는 패턴이 관찰되어 투자·분석 우선순위 결정에 활용 가능함.
  • 태그: 도메인_인사이트, 시장_반응, 우선순위

  • 📚 [교훈] 도메인 불일치면 전체 도입보다 선별 도입

  • OMC처럼 기술적으로 맞지 않는 전체 도입 시도를 피하고, 도메인 적합한 부분만 선별 적용하는 것이 시간·자원 낭비를 줄이는 전략임.
  • 태그: 거버넌스, 리스크관리

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전면 도입 대신 체리픽으로 제한 적용
  • OMC가 전체 도입에 적합하지 않다고 판단될 때, 전면 적용 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction처럼 '실효성 있는 소수 기능'만 체리픽해서 도입함으로써 비용과 적합성 문제를 회피했다.
  • 태그: 도입전략, 리스크절감

  • ⚖️ [판단] 모델 라우팅은 역할에 맞춰 단계별로 나눈다

  • 성능 요구에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할과 처리 요구를 기준으로 모델 라우팅 단계를 설계해 처리 효율과 응답 속도를 최적화한다.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 Codex는 CLI와 config로 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 모델 변경이 가능해 로컬 환경에서 모델 실험 및 전환이 용이함을 확인했다.
  • 태그: 툴링, 운영

  • 💡 [발견] 공식 문서 상태가 실시간으로 바뀔 수 있으니 확인·정정 루프 필요

  • 08:14에 공개 여부 미확인으로 기록했다가 08:16에 공식 문서에서 공개 표기를 확인한 사례처럼 문서 기반 사실은 재확인 후 기록·정정하는 루프가 필요하다.
  • 태그: 지식검증, 절차

  • 🔄 [개선] 에이전트 확장은 기능 그룹별로 소규모 추가

  • 기존 8개에서 12개로 확장할 때 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 처럼 역할을 세분화해 책임과 기능을 명확히 분리함으로써 확장 시 혼선과 중복을 줄였다.
  • 태그: 조직구조, 확장성

  • 🔧 [해결] 비용 대비 효율 낮은 모델 호출은 라우팅·전용 에이전트로 분리

  • 호출 통계(모델별 호출수·레이턴시)를 근거로 지연이 큰 작업은 심층 모델에, 빠른 응답이 필요한 작업은 경량 모델에 배치하는 라우팅 정책을 적용해 전체 성능을 개선했다.
  • 태그: 성능최적화, 모니터링

  • 📚 [교훈] 초기 판단을 바로 기록하되 정정 가능성 열어두기

  • 08:15에 미확인으로 기록했다가 08:16에 정정한 것처럼, 사실판단은 즉시 기록하되 변경이 생기면 반드시 정정 로그를 남겨 추적성을 보장해야 한다.
  • 태그: 운영절차, 투명성

  • 🔧 [해결] 대규모 LLM 호출은 통계로 운영 결정을 뒷받침

  • 총 호출수·성공률·프롬프트·응답량·모델별 레이턴시 등 지표를 수집해 어떤 모델에 부하가 있고 어디서 에러가 발생하는지 파악하여 운영·디버깅 우선순위를 정함.
  • 태그: 관측가능성, 운영

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전체 도입 대신 핵심만 체리픽
  • OMC(대규모 방식)가 전체 프로젝트에 적합하지 않다고 판단되면 전면 적용하지 않고, 도메인에 맞는 핵심 기능 3가지만 선별(cherry-pick)해 구현해 비용과 복잡도를 줄임.
  • 태그: 적용범위, 비용절감, 설계결정

  • 🔧 [해결] 모델별 역할 분리로 라우팅·성능 최적화

  • 작업 성격에 따라 모델(또는 에이전트)을 역할별로 나누어(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행) 요청을 라우팅하면 응답 품질과 처리 속도를 동시에 개선할 수 있음.
  • 태그: 아키텍처, 모델라우팅, 성능

  • ⚖️ [판단] A vs B 비교 시 도메인 적합성으로 결정

  • 기술이나 프레임워크 선택에서 기능 풍부함보다 '도메인 적합성(해당 문제에 대한 전문성)'을 우선 기준으로 삼아 채택 여부를 판단함(예: OMC는 코드 개발엔 부적합).
  • 태그: 판단기준, 선택기준

  • 💡 [발견] 모델별 호출·레이턴시 차이가 작업 비용에 직접 영향

  • 세션 통계에서 모델별 평균 레이턴시가 크게 달라 호출 분배(누가 얼마나 쓰는지)가 전체 프롬프트/응답 처리 시간 및 비용에 직결됨(예: copilot 높은 레이턴시 vs sonnet 낮은 레이턴시).
  • 태그: 관찰, 성능계측, 비용관리

  • 🔄 [개선] 사전정리(preemptive-compaction)·learner 스크립트로 반복 작업 자동화

  • 반복되는 로그·세션 정보 처리를 위해 preemptive-compaction 훅과 session_learner.py 같은 자동화 스크립트를 도입해 수작업 검토를 줄이고 재사용 가능한 학습 패턴을 추출함.
  • 태그: 자동화, 워크플로우, 재사용성

  • 📚 [교훈] 초기 정보 부정확성은 곧바로 정정·기록하라

  • 08:14에 모델 공개 여부를 미확인으로 기록했다가 08:16에 정정한 사례처럼, 잘못된 초기 판단이 있으면 즉시 정정 로그를 남겨 혼선과 중복 작업을 줄여야 함.
  • 태그: 운영절차, 투명성, 변경관리

  • 💡 [발견] 도메인 이벤트(정치·군사) → 특정 섹터별 동조화된 시장 반응

  • 대화에서 전쟁 관련 뉴스가 방산·에너지·금·사이버보안·해운·비료·우라늄 등 섹터별로 명확한 수혜 패턴을 만들었다는 관찰이 나옴. 즉 외부 이벤트는 섹터 맵핑 규칙으로 빠르게 전환 가능함.
  • 태그: 도메인지식, 투자, 패턴매핑

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 도입
  • 전체 OMC 도입이 도메인에 맞지 않을 때는 전면 도입 대신 관련성 높은 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 빠르게 적용함으로써 비용과 복잡도를 낮추고 효과는 유지한다.
  • 태그: OMC, 체리픽, 효율

  • 🔧 [해결] 모델 역할별 라우팅으로 책임 분리

  • 작업 특성에 따라 모델 라우팅을 3단계로 나눔(심층 판단→Opus, 분석·디버깅→Sonnet, 빠른 실행→Haiku). 각 계층에 적합한 모델을 배정해 판단 품질과 응답속도 균형을 맞춘다.
  • 태그: 모델라우팅, 아키텍처, 성능

  • ⚖️ [판단] 전면 적용 vs 선택적 적용 판단 기준: 도메인 적합성

  • 새 방법이나 프레임워크 도입 시 '도메인이 맞는가'를 우선 판단 기준으로 삼는다. 도메인 부적합이면 전면 적용보다 핵심 기능만 선별 적용한다.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출 패턴 차이 관찰

  • 같은 작업에서도 모델별로 호출 수와 평균 레이턴시가 크게 다름(예: cliproxy/claude-sonnet-4-6은 낮은 레이턴시와 많은 호출). 이를 통해 비용/성능 최적화 여지가 확인됨.
  • 태그: 관측치, 모델성능, 비용최적화

  • 🔄 [개선] LLM 호출 통계 주기적 집계로 안정성 모니터링

  • 총 호출·성공률·프롬프트·응답량·에러 수를 주기적으로 기록해 모델 안정성 추세를 파악하고, 문제 발생 시 원인 모델과 호출 패턴을 빠르게 추적하도록 워크플로우를 개선함.
  • 태그: 모니터링, 운영, 관측

  • 🔧 [해결] 빠른 정정과 재기록으로 정보 불일치 해소

  • 초기 판단(예: gpt-5.4 mini 공개 여부)이 불확실하면 확인 후 즉시 정정 로그를 남기고 관련 설정(Codex CLI 모델 오버라이드)을 함께 기록해 혼선 재발을 막음.
  • 태그: 정정, 문서화, 투명성

  • 💡 [발견] 특정 이벤트(전쟁)에 따른 섹터별 수혜 패턴

  • 전쟁·지정학적 이벤트는 방산·에너지·금·사이버보안·해운·비료 등 특정 섹터에 즉각적·상대적 수혜를 줌(종목별 백로그·수요·공급 차질 관점에서 연계 분석 가능).
  • 태그: 도메인지식, 금융분석, 이벤트드리븐

  • 📚 [교훈] 광범위 답변 실수로 인한 신뢰 손실 방지

  • 특정 관심사(Vg)에 대해 소홀히 응답한 실수가 있었음. 이후로는 요청 범위를 놓치지 않도록 초기 질문 검토와 섹터 포괄성 점검 루틴을 추가할 필요가 있음.
  • 태그: 대화품질, 검토루틴, 고객응대

  • 🔄 [개선] 자동화 스크립트 작성으로 리포트·리커버리 작업 표준화

  • recovery 리포트 자동화 스크립트를 도입해 수동 보고·분석 절차를 줄이고, 반복 작업을 표준화해 재현성과 속도를 개선함.
  • 태그: 자동화, 리커버리, 워크플로우

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심만 도입
  • 전체 OMC 도입은 도메인 불일치로 비효율적이라고 판단하고, 필요 기능 3가지만 골라(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 선택적으로 적용해 리스크와 작업량을 줄임
  • 태그: 체리픽, 리스크관리, 우선순위

  • 🔧 [해결] 모델 역할별 라우팅으로 작업 분리

  • 작업 성격에 따라 모델을 분리(Opus=심층판단, Sonnet=분석·디버깅, Haiku=빠른실행)해 각 모델의 강점을 살려 응답 품질과 레이턴시를 최적화함
  • 태그: 모델선택, 아키텍처, 성능

  • ⚖️ [판단] 전면도입 vs 부분도입 — 도메인 적합성 기준

  • 새 시스템을 전면 도입할지 결정할 때 코드개발 전문성 여부 등 도메인 적합성을 우선 고려하여, 적합하지 않으면 전체가 아닌 핵심 기능만 부분도입한다
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출패턴 차이 관찰

  • 같은 작업でも 모델별 호출 수, 성공률, 평균 레이턴시가 크게 다르므로 작업 유형에 맞춰 모델을 할당하면 효율이 개선됨(예: sonnet 낮은 레이턴시로 다수 호출에 유리)
  • 태그: 관찰, 모델성능

  • 🔄 [개선] 자동화 스크립트 도입으로 리포트 작업 시작

  • 수동 리포트 작업을 자동화 스크립트(recovery 리포트 자동화 등)로 전환해 반복작업을 줄이고 검증 가능한 출력 생성 흐름을 만들기 시작함
  • 태그: 자동화, 워크플로우

  • 📚 [교훈] 정보 불확실성 발생시 즉시 정정·기록

  • 초기에 gpt-5.4-mini 공개 여부를 확인했다가 정정한 사례에서, 불확실한 사실은 바로 재확인하고 의사결정 로그에 정정 기록을 남겨 혼선을 줄여야 함
  • 태그: 정확성, 문서화, 운영절차

  • 💡 [발견] 도메인 이벤트가 섹터·종목 연관성에 직접적 영향

  • 외부 사건(예: 전쟁, Shah 가스전 피격)이 특정 섹터(방산, 에너지, 비료 등)에 명확한 수혜·충격을 주므로 투자 분석에서 사건→섹터→종목 맵핑을 일관되게 적용해야 함
  • 태그: 도메인관찰, 투자분석

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 전체 도입 대신 핵심 기능만 체리픽
  • OMC 전체를 도입하는 대신 도메인에 맞지 않으면 전체가 아닌 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 실제로 도움이 될 3가지 기능만 골라 구현한다. 부담을 줄이면서 효과는 유지하는 방식.
  • 태그: 체리픽, 범위조정, 우선순위

  • 🔄 [개선] 모델 역할에 따른 3단계 라우팅으로 책임 분리

  • 모델 특성(심층 판단, 분석·디버깅, 빠른 실행)에 맞춰 Opus/Sonnet/Haiku로 역할을 나누고 에이전트 수를 확장(8→12)해 각 모델에 적합한 작업을 배치하는 라우팅 패턴을 도입함으로써 효율과 응답 품질을 개선.
  • 태그: 모델라우팅, 아키텍처, 확장성

  • 💡 [발견] 모델별 레이턴시와 호출패턴이 작업 배치에 영향

  • 세션 통계에서 cliproxy/claude-sonnet-4-6은 평균 레이턴시가 짧고 호출 수가 많아 분석·디버깅에 적합했고, github-copilot/gpt-5-mini는 레이턴시가 길어 심층 작업에 주로 사용되었다. 모델 특성과 지연을 고려해 작업을 배치해야 함.
  • 태그: 측정기반, 성능관찰, 배치전략

  • ⚖️ [판단] 문서 확인 vs 로컬 확인 — 공식 문서 우선, 로컬 설정으로 보완

  • 모델 공개 여부는 먼저 공식 OpenAI 문서를 확인하고(08:15→정정 사례), 로컬 Codex의 모델 오버라이드 지원은 실제 CLI/config 테스트로 확인해 운영 결정을 내림. 외부 공식 근거 우선, 로컬 기능은 실행 가능성 판단용으로 사용.
  • 태그: 검증우선, 문서중심, 운영정책

  • 📚 [교훈] 공식 근거 확인 부족으로 인한 정정 비용

  • 08:15에 '공개 확인 불가'로 기록했다가 08:16에 '공식 문서에 공개 표기 확인'으로 정정함. 결론: 판단을 내리기 전에 공식 소스(문서)를 재확인하면 정정과 재작업을 줄일 수 있음.
  • 태그: 실수, 검증절차, 문서검토

  • 🔧 [해결] 복구 리포트 자동화로 반복 작업 제거

  • recovery 리포트 자동화 스크립트 작성을 시작해 수동으로 만드는 복구 보고서를 자동으로 생성하도록 하여 반복 수작업을 줄이고 일관된 리포트 형식을 확보하는 패턴.
  • 태그: 자동화, 운영효율

  • 💡 [발견] 세션 통계로 신뢰·문제 지표를 즉시 파악

  • LLM 호출 통계(총 호출, 성공률, 에러 수, 프롬프트/응답량)를 정기적으로 기록해 모델 신뢰도와 문제 발생률을 빠르게 파악하고 대응 우선순위를 정함.
  • 태그: 모니터링, 지표, 운영관찰

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트에서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 에이전트를 추가해 역할을 분리하면 책임 분담과 병렬 처리 능력이 향상됨.
  • 태그: 조직, 병렬처리, 전문화

  • ⚖️ [판단] 모델 오버라이드 지원 판단 시 CLI+config 확인을 기준으로 결정

  • 로컬 Codex의 모델 변경 가능성(예: -m/--model, config.toml)은 실제 CLI 옵션과 설정 키가 지원되는지 확인하는 것으로 판단 근거로 삼음. 문서뿐 아니라 도구의 실제 옵션을 검증 기준으로 사용.
  • 태그: 실무기준, 검증, 도구확인

  • 📚 [교훈] 많은 LLM 호출은 성공률 관리와 비용-지연 관찰을 요구

  • 대량 호출(수백건) 환경에서는 성공률, 에러 수, 레이턴시 분포를 꾸준히 관찰해 모델 선택과 라우팅을 조정해야 함 — 통계가 없으면 병목·비용 문제를 놓치기 쉽다.
  • 태그: 운영교훈, 계측, 비용관리

2026-03-19

  • 🔧 [해결] 대규모 기능은 체리픽해서 필요한 것만 도입
  • OMC 전체 도입은 도메인 불일치로 불필요하다고 판단하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 세 가지만 선택해 구현하여 비용과 복잡도를 줄였다.
  • 태그: 체리픽, 비용절감, 최소구현

  • 🔧 [해결] 모델 특성에 따른 3단계 라우팅 적용

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델 라우팅함으로써 각 모델의 강점을 살려 처리 효율과 품질을 개선했다.
  • 태그: 모델라우팅, 성능최적화

  • ⚖️ [판단] 전체 도입 vs 부분 도입 판단 기준은 도메인 적합성

  • 새 시스템이나 방법을 전면 도입할지 결정할 때 '코드 개발 전문성' 등 도메인 적합성을 기준으로 삼아, 적합하지 않으면 부분 체리픽으로 대응한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 호출·성공·레이턴시 통계는 최적화 근거

  • 모델별 호출 횟수, 성공률, 평균 레이턴시 데이터(예: sonnet 레이턴시 짧음)를 통해 어떤 모델을 어떤 작업에 배치할지 근거로 사용했다.
  • 태그: 모델모니터링, 데이터기반

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅으로 자원 효율화

  • preemptive-compaction 스크립트를 훅으로 추가해 세션/에이전시 자원 사용을 줄이고 처리 안정성을 높이는 방식으로 워크플로우를 개선했다.
  • 태그: 리소스관리, 자동화

  • 🔄 [개선] recovery 리포트 자동화로 장애 대응 시간 단축

  • recovery 리포트 자동화 스크립트 작성을 통해 장애 발생 시 수동 리포트 작성 부담을 줄이고 복구 검증 속도를 올리려는 워크플로우 개선이다.
  • 태그: 자동화, 운영

  • 📚 [교훈] 문서 확인 전 초기 결론은 정정될 수 있음

  • 08:15에 gpt-5.4 mini 공개 확인 불가로 기록했으나 이후 공식 문서 확인으로 08:16에 공개 표기로 정정됨. 중요한 공개 여부는 공식 출처 재확인이 필요하다.
  • 태그: 검증, 정보정확성

  • 📚 [교훈] 모델 오버라이드 가능성은 로컬 도구 설정 확인으로 해결

  • Codex CLI의 -m/--model과 config.toml 설정으로 모델 오버라이드를 확인한 사례처럼, 변경 가능성은 로컬 도구 문서와 설정 파일을 먼저 확인해야 한다.
  • 태그: 실무팁, 설정검증

  • 💡 [발견] 작업별 에이전트 확장으로 역할 분리 가능

  • 에이전트 수를 8→12로 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)해 역할을 세분화하자 특정 작업(분석·리포트·디버그)에 특화된 처리와 병렬성이 확보되었다.
  • 태그: 아키텍처, 에이전트설계

2026-03-19

  • 🔧 [해결] 체리픽(cherry-pick)으로 범위 축소해 적용
  • OMC 전면 도입 대신 도메인 적합성 고려해 필요한 기능 3가지만 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 구현함. 전면 도입 리스크 회피와 빨리 성과 내기 위한 전략.
  • 태그: 체리픽, 리스크관리, 빠른성과

  • ⚖️ [판단] 도메인 적합성으로 전면 도입 여부 결정

  • 플랫폼 전면 도입을 검토할 때 코드 개발 전문성 여부를 기준으로 불필요 판단 → 필요한 부분만 체리픽 적용.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 라우팅으로 역할 분리 효과적

  • 3단계 모델 라우팅(Opus: 심층판단, Sonnet: 분석·디버깅, Haiku: 빠른실행)을 도입해 모델별로 작업 성격을 분리하면 처리 효율과 응답 속도 최적화됨.
  • 태그: 모델라우팅, 역할분리, 성능

  • 🔄 [개선] 에이전트 수직 확장으로 기능 분화

  • 기존 8개에서 12개로 에이전트 추가(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)해 책임과 전문화 수준을 높임 — 문제별 전담 에이전트로 처리 흐름 개선.
  • 태그: 에이전트, 조직화, 전문화

  • 🔧 [해결] preemptive-compaction으로 리소스·프롬프트 관리

  • 프롬프트 총량/응답량이 큰 상황에서 사전 압축(preemptive-compaction) 훅을 도입해 LLM 호출 비용과 처리량을 관리함.
  • 태그: 프롬프트관리, 비용절감, 스케일링

  • 📚 [교훈] 초기 정보 부정확성은 정정 로그로 보완

  • gpt-5.4 mini 공개 여부 관련 첫 판단이 불확실했으나 정정 기록(08:16)을 남겨 사실을 업데이트함 → 빠른 정정과 로그 기록의 중요성 확인.
  • 태그: 정정, 로그, 정보검증

  • 💡 [발견] LLM 호출 통계로 모델 성능·믹스 판단 가능

  • 모델별 호출 수·성공률·레이턴시 통계를 수집해 실제 운영 시 어떤 모델이 더 효율적인지 판단하고 라우팅 정책에 반영할 수 있음(예: sonnet 낮은 레이턴시로 분석 작업 적합).
  • 태그: 메트릭, 운영모니터링, 모델선택

2026-03-19

  • 🔧 [해결] 특정 기능만 체리픽해 도메인 불일치 문제 완화
  • OMC 전체 도입이 도메인과 맞지 않을 때는 전체를 가져오지 않고 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 3가지 핵심만 골라 적용해 요구사항에 맞추며 리스크를 줄인다.
  • 태그: 체리픽, 리스크관리, 모듈화

  • ⚖️ [판단] 모델 라우팅은 역할·지연·판단 강도 기준으로 분리

  • 에이전트 라우팅을 설계할 때 '심층 판단'은 Opus, '분석·디버깅'은 Sonnet, '빠른 실행'은 Haiku처럼 역할(판단 깊이)과 레이턴시·작업 성격을 기준으로 모델을 배치한다.
  • 태그: 모델선택, 운영정책

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI는 -m/--model 옵션과 config.toml의 model 키를 통해 로컬에서 모델 변경을 지원한다는 사실을 확인하여 로컬 테스트·전환이 가능함을 발견함.
  • 태그: 도구역량, 모델관리

  • 🔧 [해결] 작업 확장 시 에이전트 세분화로 처리량 확보

  • 에이전트를 기존 8개에서 12개로 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)하여 역할을 세분화하고 동시 처리능력과 책임 경계를 개선했다.
  • 태그: 스케일링, 운영모델

  • 🔄 [개선] preemptive-compaction으로 프롬프트·응답 비용 관리

  • 프롬프트 총량과 응답량이 큰 작업에서는 미리(compaction) 불필요한 컨텍스트를 압축·정리해 호출 비용과 레이턴시를 낮추는 패턴을 도입함.
  • 태그: 비용절감, 프롬프트관리

  • 📚 [교훈] 문서·외부표기 변경은 재확인 루프 필요

  • 08:14에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공식 문서에서 공개 표기 발견—중요 정보는 즉시 1차 확인 후 추가 소스로 재검증하는 절차를 두어야 함.
  • 태그: 검증절차, 정보정합성

  • 💡 [발견] 모델별 레이턴시 편차는 라우팅에 영향

  • 기록된 모델별 평균 레이턴시(github-copilot 높은 수치, claude-sonnet 낮은 수치)를 보고 작업 특성에 따라 레이턴시를 고려한 모델 배치를 적용하면 효율이 올라감.
  • 태그: 관찰, 성능기준

  • 🔧 [해결] 분석·리포트 자동화로 반복 작업 제거

  • recovery 리포트 자동화 스크립트 작성 시작 같은 반복형 리포트 작업은 스크립트화해 사람 개입을 줄이고 일관된 출력 포맷과 신속한 검증을 가능하게 함.
  • 태그: 자동화, 효율화

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전체 도입 대신 핵심 기능만 체리픽한다
  • OMC 전체 도입이 도메인과 맞지 않음을 판단한 뒤, 개발에 유용한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용함으로써 비용을 줄이고 효과를 유지함.
  • 태그: 범위결정, 우선순위, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 적용한다

  • 심층 판단·분석·빠른 실행 등 역할을 기준으로 모델을 분리(Opus/심층 판단, Sonnet/분석·디버깅, Haiku/빠른 실행)하여 각 모델의 강점에 맞게 라우팅하기로 결정함.
  • 태그: 모델선택, 아키텍처, 역할분리

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원을 제공한다

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델 변경(오버라이드)을 지원함을 확인함 — 문서와 실사용 설정 간 불일치 정정 사례 발생.
  • 태그: 도구기능, 설정, 검증

  • 🔄 [개선] 에이전트 확장은 역할별 세분화로 처리한다

  • 기존 에이전트 수를 늘릴 때 기능별로 specialist 에이전트를 추가(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)하여 단일 에이전트의 복잡도를 낮추고 책임을 명확히 함.
  • 태그: 운영, 확장, 책임분리

  • 🔧 [해결] 대량 LLM 호출은 모델별 통계로 성능을 모니터링한다

  • 호출 건수·성공률·레이턴시를 모델별로 집계해 문제(에러 발생, 실패 모델)를 빠르게 식별하고 어떤 모델을 더 많이 쓰거나 교체할지 결정함.
  • 태그: 관찰성, 모니터링, 성능측정

  • 📚 [교훈] 초기 확인 없이 문서 상태를 단정하면 정정이 필요해진다

  • 08:15에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공개 표기가 확인되어 정정함 — 문서 확인 시점과 기록 시점을 분명히 하라는 교훈.
  • 태그: 문서관리, 사실검증, 절차

  • 💡 [발견] 전쟁·지정학 이슈는 특정 섹터에 일관된 수혜를 준다

  • 세션 대화에서 방산·에너지·금·사이버보안·해운·비료 등이 전쟁 관련 이슈로 뚜렷한 수혜 패턴을 보였음 — 사건→원자재/수요 변화→섹터별 수혜 연결 고리 관찰.
  • 태그: 도메인인사이트, 금융, 트렌드

  • 🔄 [개선] 복구·보고 자동화 스크립트를 도입해 반복작업 감소

  • recovery 리포트 자동화 스크립트 작업을 시작해 수동 보고 생산 비용을 줄이고 재현 가능한 리포트 파이프라인을 만들려 함.
  • 태그: 자동화, 운영개선, 보고

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 작은 셋만 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 핵심 가치가 명확한 3가지를 선택해 단계적으로 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 작은 범위로 우선 적용해 리스크와 개발비용을 낮춤.
  • 태그: 범위축소, 리스크관리, 점진도입

  • ⚖️ [판단] 모델 라우팅은 역할 기준으로 분리

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 역할(판단/분석/실행) 기준으로 모델 라우팅을 결정함—모델별 강점에 맞춰 작업 배치하면 효율성 개선.
  • 태그: 모델선택, 역할기반

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인해 로컬 환경에서 모델 전환이 가능함을 발견.
  • 태그: 도구기능, 환경설정

  • 🔄 [개선] Recovery 리포트 자동화 + 유닛/통합 테스트 병행

  • 복구 리포트 스크립트 작성과 recovery_collector의 유닛 및 통합 테스트를 동시에 진행해 자동화 신뢰도를 높이고 회귀 위험을 줄이는 워크플로우로 전환.
  • 태그: 테스트자동화, 신뢰성

  • 📚 [교훈] 전문성 불일치면 전면 도입보다 선택적 적용

  • 기능이나 프레임워크가 팀의 도메인 전문성과 맞지 않으면 전체 도입을 피하고, 잘 맞는 부분만 체리픽해서 적용하는 것이 비용대비 효과가 높음.
  • 태그: 조직전략, 의사결정

  • 💡 [발견] LLM 호출 통계로 성능·신뢰도 모니터링 가능

  • 모델별 호출수, 성공률, 평균 레이턴시를 기록해 어떤 모델이 빠르고 안정적인지 파악하고 운영·디버깅 우선순위를 정할 수 있음(예: claude-sonnet 평균 레이턴시 낮음).
  • 태그: 모니터링, 운영지표

  • 🔧 [해결] 대화형 질의에는 섹터별 맵으로 구조화 응답

  • 사용자 불만(특정 종목 미제공)을 해결하기 위해 섹터별 요약 테이블과 핵심 포인트(대표 종목·수익률·핵심이유)를 제공해 빠르게 맥락과 대안을 제시함.
  • 태그: 응답포맷, 정보구조화

2026-03-19

  • 🔧 [해결] 특정 기능 전체 도입 대신 핵심 3가지만 체리픽하여 우선 적용
  • 도메인 부적합하거나 범위가 큰 새로운 방식(OMC 전체 도입)은 전면 적용하지 않고, 조직에 맞는 핵심 3가지를 선택해(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 등) 먼저 구현하여 효과와 비용을 검증한다.
  • 태그: 점진적도입, 범위관리, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할·강점 기준으로 분리

  • 복수 모델을 운영할 때는 각 모델의 강점(심층 판단 vs 분석·디버깅 vs 빠른 실행)에 따라 라우팅 계층을 설계(예: Opus/심층 판단, Sonnet/분석·디버깅, Haiku/빠른 실행)하여 작업 유형별로 적합한 모델로 분배한다.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드와 설정 파일로 모델 변경 지원

  • Codex CLI는 -m/--model 플래그와 config.toml의 model 키로 모델 오버라이드를 허용하므로 운영환경에서 모델 전환이 가능하다는 사실을 확인했다.
  • 태그: 운영, 모델전환

  • 🔧 [해결] 에이전트 확장은 역할별 세분화로 처리

  • 기능 확장이 필요할 때 단순 수 증가(8→12)가 아니라 역할을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)하여 책임을 분리하고 전문화함으로써 관리성과 확장성을 확보한다.
  • 태그: 조직, 역할분리, 확장성

  • 🔄 [개선] 프롬프트·호출 통계 모니터링으로 신뢰성 관리

  • 총 호출수, 성공률, 프롬프트·응답 총량, 모델별 레이턴시 등 지표를 주기적으로 집계해 문제(에러 증감, 실패 모델)를 빠르게 발견하고 대응 루틴(예: 실패율 높은 모델 격리)을 만든다.
  • 태그: 모니터링, 신뢰성

  • 💡 [발견] 같은 날짜의 문서·로그에서 정보 정정이 빠르게 일어남

  • 08:15에는 공개 확인 불가라 기록했다가 08:16에 정정해 공개 표기 확인으로 바뀌는 흐름이 관찰되었다. 실시간 문서 확인 후 즉시 의사기록을 업데이트하는 패턴이 존재한다.
  • 태그: 문서관리, 정정절차

  • 📚 [교훈] 초기 결론을 바로 확정하지 말고 확인된 근거로 기록하라

  • 08:15의 '확인 불가' 결론이 08:16에 정정된 사례에서 보듯, 불확실한 정보는 임시 결론으로 표시하고 추가 확인 후 정식 의사결정으로 올리는 방식이 필요하다.
  • 태그: 의사결정, 검증

  • 🔧 [해결] 복구·리포트 자동화와 테스트 병행 개발

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 작성하여 자동화 코드의 신뢰성을 확보하는 병행 작업 패턴이 적용되었다.
  • 태그: 자동화, 테스트

  • 💡 [발견] 전시적 사건(전쟁·피격)은 특정 섹터에 빠르게 연쇄적 영향

  • 예: UAE Shah 가스전 피격 → 황 공급 차질 → 인산비료 원료 부족 → 비료·농업 관련 기업들이 수혜를 받음. 사건→서플라이체인→섹터 연계 관계가 뚜렷함.
  • 태그: 도메인지식, 사건영향분석

  • ⚖️ [판단] 섹터 추천은 실적·공급망·정책 발표를 종합해 우선순위 판단

  • 주식 섹터 추천 시 가격 상승률뿐 아니라 백로그, 정부 요청(생산 증대), 공급망 리스크(황 공급 차질) 등을 함께 고려해 소개·우선순위를 결정한다.
  • 태그: 투자판단, 다중기준

2026-03-19

  • 🔧 [해결] 체리픽으로 복잡도 낮추기
  • 전체 OMC 도입 대신 도메인 적합한 핵심 기능 3가지만 선택(cherry-pick)해 구현하여 불필요한 작업을 줄이고 빠르게 가치 제공함. 적용: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 도입.
  • 태그: 범위관리, 우선순위, 효율

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단엔 Opus, 분석·디버깅엔 Sonnet, 빠른 실행엔 Haiku처럼 모델을 역할(목적)별로 분리해 할당하면 성능·비용·지연을 균형있게 맞출 수 있음.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 -m/--model 또는 설정 키로 모델 변경이 가능해 로컬 환경에서 모델 전환이 실무적으로 활용될 수 있음.
  • 태그: 도구능력, 운영

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트 수를 늘려(8→12) analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전담 역할을 만들어 책임과 기능을 분리함으로써 유지보수성과 병렬 처리를 개선함.
  • 태그: 팀구조, 운영개선

  • 🔧 [해결] 프롬프트·호출 통계로 안정성 모니터링

  • 총 호출·성공률·프롬프트/응답량·에러 수를 주기적으로 집계해 모델별 안정성(성공률, 레이턴시)과 비용(토큰량)을 관찰하고 문제를 조기 탐지함.
  • 태그: 모니터링, 품질관리

  • 📚 [교훈] 초기 과대적용 방지

  • 새 기법(OMC)을 무조건 전체 도입하지 말고 도메인 적합성 판단 후 필요한 부분만 선택 적용해야 효율적이라는 판단을 얻음. 앞으로는 파일·작업 증가 전 우선성 재검토를 권장함.
  • 태그: 거버넌스, 리스크관리

  • 💡 [발견] 전쟁·이슈별 섹터 수혜 맵 유용성

  • 시황(예: 전쟁)으로 인해 방산·에너지·금·사이버보안·해운·비료 등 섹터별 수혜가 명확하므로, 투자 추천·리포트는 사건→섹터 맵핑을 표준 패턴으로 사용하면 설명력이 높아짐.
  • 태그: 정보구조, 리서치

2026-03-19

  • 🔧 [해결] 도메인 불일치시 체리픽으로 핵심만 적용
  • OMC 전체 도입이 도메인에 맞지 않을 때 전체를 도입하지 않고, '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 3가지만 선별해 적용함으로써 비용과 복잡도를 줄이고 효과만 확보한다.
  • 태그: 적용전략, 스코핑, 모델라우팅

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 에이전트/모델을 역할에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 나누어 호출 빈도와 응답시간을 고려해 라우팅 결정을 내림.
  • 태그: 모델선택, 성능기준

  • 💡 [발견] 모델별 평균 레이턴시와 용도 연관성

  • 로그에서 cliproxy/claude-sonnet-4-6은 낮은 평균 레이턴시(약 4s)를 보이고 심층 판단 모델보다 빠르므로 분석·디버깅 용도로 적합하다는 사실이 확인됨.
  • 태그: 성능관찰, 모델특성

  • 🔄 [개선] 에이전트 확장으로 역할 분담 세분화

  • 기존 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임과 기능을 분리하고 병렬 처리와 전문화를 강화함.
  • 태그: 아키텍처, 운영효율

  • 🔧 [해결] 로컬 도구로 모델 오버라이드 허용 확인 후 유연하게 전환

  • OpenAI 공식 문서와 로컬 Codex 기능을 교차 확인해 모델 가용성(예: gpt-5.4 mini 공개 여부)을 파악하고, Codex CLI의 -m/--model 및 config.toml을 통해 로컬에서 모델 오버라이드를 적용해 대응함.
  • 태그: 도구사용, 모델전환

  • 💡 [발견] LLM 호출 성공률과 호출량의 불균형 관찰

  • 세션별 누적 호출량과 성공률을 보면 호출량이 급증해도 성공률은 높게 유지되나 일부 모델(gpt-5-mini 등)은 호출이 있으나 성공률이 0%로 표기되어 모델별 실패 패턴이 존재함.
  • 태그: 모니터링, 문제탐지

  • 📚 [교훈] 공식 문서 확인의 시차로 인한 잘못된 초기 판단

  • 08:14에 gpt-5.4 mini 공개 확인 불가로 기록했다가 08:16에 정정함. 실무에서는 문서 근거가 불확실할 때 즉시 결론을 내리기보다 '확인 중' 상태로 표기해야 혼선이 줄어듦.
  • 태그: 의사결정절차, 문서검증

  • 🔧 [해결] 복구 리포트 자동화 + 유닛 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화 코드의 신뢰도를 확보하고 회복 절차의 검증 가능성을 높임.
  • 태그: 자동화, 테스트

  • ⚖️ [판단] 문제 대응 우선순위는 '최소 변경, 검증 가능한 변경' 기준

  • SOUL 규칙에 맞춰 진단→최소 변경→검증→보고 순으로 진행하며 되돌리기 어려운 변경은 사전 확인을 요구함으로써 안전성을 우선시함.
  • 태그: 운영원칙, 위험관리

  • 💡 [발견] 도메인 전문가 맞춤 적용이 효과적

  • OMC 전체 적용 대신 도메인(코드 개발)에 맞춘 핵심 기능만 선별 적용했을 때 빠른 성과와 적은 비용으로 원하는 결과를 얻음.
  • 태그: 전략적선택, 도메인적합성

2026-03-19

  • 🔧 [해결] 체리픽으로 적용 범위 제한
  • OMC 전체 도입 대신 도메인 적합성 판단 후 핵심 기능 3가지만 선택해 체리픽(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)으로 구현하여 비용과 복잡도 줄임
  • 태그: 범위결정, 단계적도입, 리스크관리

  • 🔧 [해결] 모델 역할별 라우팅

  • 요구 성격에 따라 모델을 역할별로 나누어 라우팅(심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku)하면 각 모델의 특성에 맞게 작업 분배 가능
  • 태그: 아키텍처, 모델라우팅, 성능최적화

  • ⚖️ [판단] 전체 적용 vs 체리픽 판단 기준

  • 새 기술(OMC)은 도메인 적합성 기준으로 전체 도입이 아닌 체리픽으로 판단 — 코드 개발 도메인과 맞지 않으면 부분 선택으로 한정
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출양 차이

  • 같은 작업량에서도 모델별 호출 수와 평균 레이턴시가 크게 다름(예: claude-sonnet 호출 많고 레이턴시 낮음, gpt-5-mini 호출 적고 실패률 있음) → 비용·성능 고려해 모델 선택 필요
  • 태그: 관측, 모델성능, 비용관리

  • 🔄 [개선] 자동화 스크립트와 유닛테스트 병행 작성

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 작성하여 자동화 안정성 보증
  • 태그: 테스트자동화, 신뢰성

  • 🔧 [해결] 로컬 툴에서의 모델 오버라이드 활용

  • 공식 문서의 공개 여부가 혼재될 때 로컬 Codex의 -m/--model 또는 config.toml model 키로 모델 오버라이드를 사용해 테스트 및 전환 가능
  • 태그: 운영절차, 도구활용

  • 📚 [교훈] 초기 정보 불확실성은 빠르게 정정 기록

  • gpt-5.4 mini 공개 여부에 대해 최초와 정정 기록이 공존 → 정정 시점과 근거를 로그에 남겨 추후 혼선 방지 필요
  • 태그: 기록습관, 투명성

  • 📚 [교훈] 대화 응답 범위는 사용자 기대 확인 필요

  • 사용자(주식 문의)에 대해 특정 섹터만 다뤄 생략 발생 → 사용자의 관심(예: Vg 종목) 확인 후 전체 맵이나 빠른 요약 제공하는 절차 필요
  • 태그: 사용자중심, 요구확인

  • 💡 [발견] 프롬프트·응답 총량과 안정성 지표

  • 프롬프트 길이·호출 건수와 성공률/에러 수를 함께 기록하면 시스템 안정성 및 비용 대비 효과를 평가하기 쉬움
  • 태그: 모니터링, 지표

  • 🔄 [개선] 역할별 에이전트 확장 전략

  • 필요 기능(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 파편화된 에이전트로 확장해 책임 분리 및 확장성 확보
  • 태그: 조직화, 확장성

2026-03-19

  • 🔧 [해결] 필요한 기능만 체리픽해서 적용
  • OMC 전체 도입 대신 도메인 적합성을 고려해 핵심 3가지만 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 범위 좁혀 빠르게 구현하고 리스크·비용 절감.
  • 태그: 범위결정, 빠른실행, 리스크관리

  • ⚖️ [판단] 도메인 적합성으로 도입 범위 결정

  • 새 기법(OMC)을 무조건 전체 적용하지 않고 '이 팀/코드에 적합한가'를 기준으로 전체 도입 vs 체리픽 판단(코드 개발 전문이라 전체 불필요 → 3개만 채택).
  • 태그: 의사결정기준, 적합성

  • 💡 [발견] 모델 역할 분리로 라우팅 효율화

  • 3단계 모델 라우팅(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)로 작업 성격에 맞는 모델·에이전트 배치가 가능함.
  • 태그: 모델라우팅, 아키텍처

  • 🔄 [개선] 에이전트 확장으로 전문화 도입

  • 단일 에이전트에서 역할별로 세분화(8→12)해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 에이전트를 추가—책임 분리와 병렬 처리 개선.
  • 태그: 조직화, 병렬처리, 전문화

  • 🔧 [해결] 로컬 CLI·설정으로 모델 오버라이드 지원

  • 모델 공개 시점 불확실성에도 Codex CLI의 -m/--model 및 config.toml model 키로 로컬에서 모델 선택·오버라이드 가능해 대응성 확보.
  • 태그: 도구설정, 유연성

  • 💡 [발견] LLM 호출 통계로 성능·비용 판단 가능

  • 모델별 호출수·성공률·평균 레이턴시 데이터를 수집해 어떤 모델을 주력으로 쓸지(성능 vs 비용) 판단할 근거가 됨(예: sonnet 낮은 레이턴시).
  • 태그: 관찰, 모니터링

  • 📚 [교훈] 초기 과대적용은 비효율로 연결됨

  • 새 기술을 전사적으로 바로 적용하려다 적합성 문제로 범위 축소—앞으로는 파일럿→체리픽→확대가 효율적임.
  • 태그: 교훈, 파일럿

  • 🔧 [해결] 전략적 리포트·테스트 자동화 병행

  • recovery 리포트 자동화·recovery_collector 테스트를 병행해 코드 변경 시 재현·검증 루프를 빠르게 구축함(개발→자동화→테스트 순환).
  • 태그: 테스트자동화, 지속적검증

2026-03-19

  • 🔧 [해결] 문제별 에이전트 체리픽으로 효과적 대응
  • 전체 OMC 도입 대신 도메인 적합성 검토 후 핵심 3가지를 체리픽(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 개발 비용과 복잡도를 줄이고 효과만 확보함.
  • 태그: 모듈화, 우선순위, 비용절감

  • ⚖️ [판단] 도구 전면 도입 대신 도메인 적합성으로 결정

  • 새 방법론(OMC)을 무작정 전체 적용하지 않고 '코드 개발 전문성 여부'라는 기준으로 도입 범위를 축소·선택함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델 라우팅으로 역할 분리 가능

  • 3단계 모델 라우팅(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)으로 작업 성격에 맞춰 모델을 분리하면 효율과 응답속도 최적화가 가능함.
  • 태그: 모델선택, 라우팅

  • 🔧 [해결] 빠른 실행과 심층 판단을 모델로 분리

  • 짧고 빈번한 작업은 경량 모델에, 복잡한 판단은 고성능 모델에 맡겨 호출 횟수와 레이턴시를 관리함(예: Haiku vs Opus).
  • 태그: 성능관리, 비용-효율

  • 🔄 [개선] 에이전트 확장으로 책임 분할

  • 필요 기능(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 추가해 에이전트 수를 8→12로 확장하여 역할별 책임을 명확히 함.
  • 태그: 워크플로우, 책임분리

  • 💡 [발견] 로컬 툴은 모델 오버라이드 지원

  • Codex CLI와 config.toml이 모델 오버라이드(-m/--model, model 키)를 지원해 공식 공개 여부와 무관하게 로컬에서 모델 변경 가능함.
  • 태그: 도구역량, 운영팁

  • 📚 [교훈] 판단은 문서 확인 뒤 정정 가능성 열어두기

  • 초기에는 gpt-5.4-mini 공개 불가로 기록했다가 곧 재확인 후 공개 표기 확인으로 정정한 사례 — 의사결정 로그에 '정정 이력'을 남기면 추적성과 신뢰도가 올라감.
  • 태그: 검증, 기록

  • 🔧 [해결] 복구 리포트·테스트 자동화로 신뢰성 확보

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛·통합 테스트를 작성해 장애 대응을 자동화·검증함.
  • 태그: 자동화, 테스트

  • 💡 [발견] 통계 기반으로 모델 성능·비용 추적

  • 세션별 LLM 호출 통계(호출수, 성공률, 프롬프트/응답량, 평균 레이턴시)를 수집해 모델별 성능과 비용을 비교·모니터링함.
  • 태그: 관찰성, 메트릭

  • 📚 [교훈] 광범위한 응답은 사용자 관심사 놓칠 수 있음

  • 질문(Q1)에서 특정 섹터(Vg) 언급을 놓친 채 에너지 중심으로 답변하자 사용자 불만이 발생 — 범위 확인과 빠른 사과/보완이 필요함.
  • 태그: UX, 사용자피드백

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 체리픽 방식으로 핵심만 적용
  • 전체 OMC 도입이 불필요하다고 판단되면 전체 적용 대신 도메인에 맞는 핵심 기능(여기서는 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택적으로 체리픽하여 구현한다.
  • 태그: 도메인적합성, 단계적적용, 체리픽

  • ⚖️ [판단] 모델 라우팅 설계는 '역할 별 분담' 기준으로 결정

  • 복수 모델을 운영할 때는 역할(심층 판단 vs 분석·디버깅 vs 빠른 실행)에 따라 모델을 라우팅하고, 각 모델에 명확한 책임 범위를 할당해 성능·레이턴시·비용 균형을 맞춘다.
  • 태그: 아키텍처, 모델선택, 운영정책

  • 💡 [발견] LLM 호출 통계로 성능·신뢰성 판단 가능

  • 모델별 호출 수, 성공률, 평균 레이턴시, 에러수를 정기적으로 수집하면 어떤 모델이 안정적/비효율적인지, 어떤 작업에 적합한지 근거로 삼을 수 있다(예: sonnet 레이턴시 낮음 → 분석용 적합).
  • 태그: 모니터링, 관찰, 운영지표

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 해결

  • 기존 단일 또는 적은 수 에이전트를 단순 확장하는 대신 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 세분화해 책임을 분명히 하고 확장성을 확보한다.
  • 태그: 조직화, 확장성, 책임분리

  • 🔧 [해결] 모델 공개 여부 불확실성은 로컬 확인으로 보완

  • 공식 문서에서 공개 여부가 불명확할 때는 로컬 툴(Codex CLI)의 모델 오버라이드 지원 여부와 config 키를 확인해 실제 운용 가능성을 검증한다.
  • 태그: 검증절차, 운영확인

  • 📚 [교훈] 정정·업데이트가 늦으면 혼선 유발

  • 08:15에 공개 불가로 기록했다가 08:16에 정정한 사례처럼 정보 확정 전 임시결론을 남기면 혼선이 생기므로, 불확실할 때는 '미확인'으로 표기하고 검증 후 업데이트하는 절차가 필요하다.
  • 태그: 커뮤니케이션, 데이터신뢰도

  • 💡 [발견] 업스트림 이벤트는 섹터별 투자기회로 직결

  • 정책(무기 증산 요청)이나 공급 충격(Shah 가스전 피격) 같은 외부 이벤트는 방산·에너지·비료 등 섹터별 상승으로 이어지므로 사건→공급·수요 충격→관련 섹터·종목 맵핑을 정형화해 대응할 수 있다.
  • 태그: 인사이트, 이벤트대응, 투자분석

  • 🔧 [해결] 대화형 문의에는 분야별 전체 맵 제공으로 신뢰 회복

  • 사용자가 특정 종목 누락을 지적하면 단일 답변 대신 관련 섹터 전반의 맵(핵심 섹터, 대표 종목, 요인)을 제공해 빠진 맥락을 보완하고 신뢰를 회복한다.
  • 태그: 고객응대, 정보전달

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 전부 적용하지 않고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 세 가지 핵심만 선택해 적용함으로써 비용과 복잡도를 줄였다.
  • 태그: OMC, 체리픽, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해 결정

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku로 3단계 라우팅을 적용해 각 모델의 강점을 기준으로 작업을 배정했다.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 플래그와 config.toml의 model 키로 모델 변경이 가능하다는 사실을 확인해 로컬 환경에서 모델 전환이 허용됨을 발견함.
  • 태그: 도구기능, Codex, 설정

  • 🔄 [개선] 에이전트 확장으로 책임 분산

  • 기존 8개 에이전트를 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 세분화하여 각 에이전트 책임을 줄이고 병렬 처리 능력을 향상시켰다.
  • 태그: 조직구조, 확장, 병렬처리

  • 🔧 [해결] 프롬프트·응답 통계로 신뢰성 모니터링

  • 세션별 LLM 호출 수, 성공률, 프롬프트·응답 총량, 에러 수를 지속 추적해 모델별 성능 편차와 문제(에러 발생)를 빠르게 식별하고 대응함.
  • 태그: 모니터링, 지표, 신뢰성

  • 📚 [교훈] 문서 확인은 초기 판단 변경시 필요

  • 08:15에 gpt-5.4-mini 공개 불확인으로 보고했다가 08:16에 공식 문서에서 공개 표기를 확인하며 정정함. 초기 결론을 문서로 반드시 재확인해야 함을 학습.
  • 태그: 검증, 문서확인, 교정

  • 💡 [발견] 전쟁·지정학 이벤트가 특정 섹터에 직접적 영향

  • 대화에서 전쟁 관련 뉴스가 방산, 에너지, 금, 사이버보안, 해운, 비료 등 섹터별로 즉시 수혜/가격변동을 일으킨다는 사실을 정리·확인함(섹터 맵 제공).
  • 태그: 도메인인사이트, 시장반응, 섹터분석

  • 🔄 [개선] 복구 리포트 자동화 + 유닛테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector의 유닛/통합 테스트를 작성해 자동화된 리포트의 신뢰도와 코드 품질을 함께 확보함.
  • 태그: 자동화, 테스트, 품질보증

2026-03-19

  • 🔧 [해결] 필요한 것만 체리픽해서 도입
  • OMC 전체 도입은 도메인 불일치로 과도하다고 판단하고, 관련된 유용한 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 부분 적용함으로써 개발 비용과 복잡도를 줄임.
  • 태그: 체리픽, 범위관리, 리스크절감

  • 🔧 [해결] 모델 특성에 따라 라우팅 분리

  • 작업 성격(심층 판단/분석·디버깅/빠른 실행)에 따라 Opus/Sonnet/Haiku로 3단계 모델 라우팅을 설계하여 각 모델의 강점을 활용하고 비용과 레이턴시를 최적화함.
  • 태그: 모델라우팅, 성능최적화, 역할분리

  • ⚖️ [판단] 전체 도입 vs 부분 체리픽 결정 기준

  • 새 기술·프레임워크는 도메인 적합성(팀 전문성)을 기준으로 전체 도입을 하지 않고, 도메인에 맞는 핵심 항목만 체리픽하는 쪽을 선택함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출 패턴 차이

  • 같은 작업군에서도 모델별 호출 횟수와 평균 레이턴시가 크게 다르며(예: cliproxy/claude-sonnet-4-6이 낮은 레이턴시, github-copilot/gpt-5-mini가 높은 레이턴시), 이를 바탕으로 모델 배치·라우팅 정책을 최적화할 수 있음.
  • 태그: 관찰, 모델성능, 계량지표

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 단일 에이전트 집합을 확장(8→12)해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문화된 에이전트를 추가함으로써 책임 분리와 병렬 처리 능력을 향상시킴.
  • 태그: 운영개선, 모듈화, 병렬처리

  • 🔄 [개선] 프롬프트·호출 통계로 신뢰성 모니터링

  • 총 호출·성공률·프롬프트/응답 총량·에러 수 같은 지표를 정기 수집해 모델 신뢰성 추적과 문제 발생 시 근거 기반 대응(예: 에러 원인 분석, 모델 교체)을 가능하게 함.
  • 태그: 모니터링, 관측가능성, 운영지표

  • 📚 [교훈] 정정·추가 확인의 중요성

  • 초기 보고에서 모델 공개 여부가 불확실했으나 추가 확인으로 정정함. 외부 문서나 공식 소스 확인을 즉시 수행하지 않으면 잘못된 정보로 의사결정될 수 있음.
  • 태그: 검증, 실수교정, 출처확인

  • 📚 [교훈] 광범위 적용 앞서 도메인 적합성 검토

  • OMC를 무조건 도입하려다 도메인 불일치로 비효율이 발생할 뻔함. 새로운 프레임워크는 먼저 도메인 적합성과 팀 역량을 검토한 후 부분 적용을 고려해야 함.
  • 태그: 루트원인, 교훈, 도입검토

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심 기능만 도입
  • 전체 OMC 방식을 도입하기보다는 도메인 부적합 판단(코드 개발 전문 아님)을 근거로 핵심 3가지만 선별(cherry-pick)해 구현함 — 설계 범위 축소로 개발 비용·리스크를 낮춤.
  • 태그: 범위관리, 최소화, 우선순위

  • 🔄 [개선] 모델별 역할 분리로 라우팅 효율화

  • 에이전트·모델을 역할별로(심층 판단(Opus) / 분석·디버깅(Sonnet) / 빠른 실행(Haiku)) 나누어 3단계 모델 라우팅을 설계함 — 작업 특성에 맞는 모델 배정으로 응답 품질과 레이턴시 균형을 개선.
  • 태그: 아키텍처, 모델라우팅, 성능

  • 🔧 [해결] 대규모 LLM 호출 안정성 보장: 로컬 오버라이드 확인

  • 공식 문서로 모델 공개 여부를 확인한 뒤, 로컬 Codex의 모델 오버라이드(-m/--model, config.toml)를 사용해 필요 시 모델 변경 가능하도록 준비함 — 외부 불확실성에 대한 로컬 제어 확보.
  • 태그: 신뢰성, 구성관리, LLM

  • 💡 [발견] LLM 호출 통계로 모델 성능·안정성 차이 관찰

  • 세션별 호출·성공률·레이턴시 표를 통해 특정 모델(cliproxy/claude-sonnet-4-6)의 낮은 레이턴시와 높은 사용 비중, 일부 모델(gpt-5-mini 등)의 호출 실패를 확인함 — 모델 선택 근거로 통계 활용 가능.
  • 태그: 모니터링, 계량적의사결정

  • ⚖️ [판단] 공식 문서 vs 로컬 검증: 공식 문서 우선 확인, 로컬은 보완 수단

  • 모델 공개 여부는 먼저 공식 OpenAI 문서를 확인하고(신뢰도 우선), 로컬 Codex 설정을 검토해 대체수단 제공 여부를 판단함 — 외부 정보 신뢰성 기준 적용.
  • 태그: 정보출처, 검증절차

  • 🔧 [해결] 자동화 스크립트 + 유닛 테스트로 리커버리 파이프라인 강화

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector의 유닛·통합 테스트를 병행하여 복구 절차의 신뢰성과 반복 실행 가능성을 확보함 — 자동화 전후 검증 루프 도입.
  • 태그: 자동화, 테스트, 운영복구

  • 📚 [교훈] 초기 과도한 범위 도입은 비효율 — 도메인 적합성 먼저 판단하라

  • OMC 전체 도입 시도 대신 도메인 적합성 판단 후 핵심만 체리픽한 결정에서 얻은 교훈: 넓게 시도하기보다 적합한 부분만 선택해 빠르게 실행·검증하는 것이 효과적임.
  • 태그: 범위관리, 교훈

  • 💡 [발견] 시장·이벤트 기반 섹터 리레이션 맵 작성으로 투자 아이디어 도출

  • 대화에서 전쟁·공급 차질 같은 특정 이벤트가 방산·에너지·비료·금 등 섹터별 수혜로 연결된다는 맵을 작성 — 이벤트→섹터→대표종목 흐름을 정형화하면 빠른 종목 제안에 유용.
  • 태그: 도메인지식, 템플릿화, 투자분석

2026-03-19

  • 🔧 [해결] 체리픽으로 필요한 기능만 빠르게 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 필요한 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 복잡도를 줄였다.
  • 태그: 최소구현, 우선순위, 체리픽

  • ⚖️ [판단] 도메인 적합성으로 도입 여부 결정

  • 새 기법이나 프레임워크 도입 시 '코드 개발 전문성 vs 도메인 적합성'을 비교해 도메인에 맞지 않으면 도입을 배제하거나 일부만 채택한다.
  • 태그: 의사결정기준, 도입검토

  • 🔄 [개선] 모델 역할별 라우팅으로 책임 분리

  • 3단계 모델 라우팅(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)을 적용해 작업 성격에 맞춰 모델과 에이전트를 배치함으로써 응답 품질과 비용을 최적화했다.
  • 태그: 아키텍처, 모델라우팅, 책임분리

  • 💡 [발견] 모델별 레이턴시·성공률 차이 관찰

  • 같은 작업에서도 모델별 호출 수, 레이턴시, 성공률이 크게 달라서 작업 유형에 맞는 모델 선택이 성능·비용에 직접 영향한다(예: sonnet 낮은 레이턴시, copilot 높은 레이턴시).
  • 태그: 계측, 모니터링, 모델선택

  • 🔧 [해결] 로컬 CLI·설정으로 모델 오버라이드

  • 공식 문서와 달리 로컬 Codex는 -m/--model 또는 config.toml로 모델을 오버라이드할 수 있어 환경에 맞게 신속히 테스트·전환 가능하다.
  • 태그: 운영팁, 도구구성

  • 🔄 [개선] preemptive-compaction 훅으로 자원관리 자동화

  • preemptive-compaction 스크립트를 훅으로 추가해 세션/에이전트 활동 전에 사전 정리·압축을 수행하여 장기 세션에서의 리소스 누수를 줄였다.
  • 태그: 자동화, 자원관리, 스케줄링

  • 📚 [교훈] 빠른 결론 후 정정 과정의 기록 필요

  • 초기에 gpt-5.4 mini 공개 불가로 기록했다가 정정된 사례처럼, 빠른 판단 뒤 정정이 발생할 수 있어 정정 시점과 근거를 명확히 로그에 남겨 추후 혼선을 방지해야 한다.
  • 태그: 기록, 정정절차, 투명성

  • 💡 [발견] LLM 호출량과 응답량 불균형 관찰

  • 프롬프트 총량에 비해 응답 총량이 작거나 호출 성공률·에러가 특정 모델에 집중되는 패턴이 있어 프롬프트 설계·재시도 정책·모델선택을 조정해야 함.
  • 태그: 계량관찰, 프롬프트공학, 신뢰성

2026-03-19

  • 🔧 [해결] 도메인 불일치일 땐 체리픽으로 적용 범위 축소
  • OMC 전체 도입은 도메인 불일치로 부적합하다고 판단할 때, 전체를 도입하지 않고 '필요한 부분(3가지)만 체리픽'해서 구현한다. 영향 범위를 줄여 빠른 가치 제공과 리스크 축소가 목적이다.
  • 태그: 범위관리, 빠른가치, 리스크절감

  • ⚖️ [판단] 모델 라우팅은 역할(심층/분석/빠른실행) 기준으로 결정

  • 여러 모델·에이전트 중 어떤 모델에 요청을 보낼지 결정할 때 '심층 판단용 / 분석·디버깅용 / 빠른 실행용'으로 나누어 각 역할에 맞는 모델을 라우팅한다(예: Opus/Deep, Sonnet/Analysis, Haiku/Fast).
  • 태그: 모델선택, 운영정책

  • 💡 [발견] LLM 호출 통계는 운영 판단 근거로 사용된다

  • 성공률, 호출수, 평균 레이턴시, 에러 수 등 통계를 통해 모델 성능·신뢰도를 파악하고 라우팅·확장 결정을 보조한다(예: 레이턴시가 낮은 모델에 분석 부하 배치).
  • 태그: 관찰, 모니터링

  • 🔄 [개선] preemptive-compaction으로 캐시/스토리지 부담 완화

  • 사전 압축(preemptive-compaction) 훅을 만들어 자원 사용을 미리 정리함으로써 실행 중 예상치 못한 스토리지 문제를 줄이고 안정성을 높인다.
  • 태그: 운영자동화, 자원관리

  • 🔧 [해결] learner 패턴 추출으로 반복작업 자동화

  • 세션에서 반복되는 행동·결정 패턴을 추출해 scripts/session_learner.py 같은 스크립트로 자동화하면 이후 세션에서 같은 수작업을 줄일 수 있다.
  • 태그: 자동화, 지식수집

  • 📚 [교훈] 모델 공개 여부는 공식 문서로 바로 확인해야 한다

  • gpt-5.4-mini 공개 여부에 대해 처음에는 확인 불가로 기록했다가 다시 확인해 정정한 사례가 있음. 모델 관련 사실은 공식 Models 문서나 로컬 툴의 설정 지원 여부를 직접 확인해 기록하라.
  • 태그: 검증, 출처확인

  • 🔧 [해결] 사용자 불만에는 빠른 사과 + 범위 재정의 + 전체 맵 제공

  • 사용자가 '왜 특정 종목을 추천하지 않느냐'고 불만을 제기하면 즉시 사과하고(톤 조절), 편향된 관심(예: 에너지)에 대해 인정한 뒤 관련 섹터 전체 맵과 대표 종목을 정리해 제공한다. 감정 진정 + 정보 제공 패턴.
  • 태그: 커뮤니케이션, 사용자대응

  • 🔄 [개선] 에이전트 확장은 역할 기반으로 세분화

  • 에이전트 수를 늘릴 때 단순 복제 대신 역할을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)하면 책임 분담이 명확해지고 전문화된 작업 처리가 가능하다.
  • 태그: 아키텍처, 운영조직

2026-03-19

  • 🔧 [해결] 복잡한 모델 도입 대신 핵심 기능만 체리픽해서 적용
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 필요한 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현해 비용과 위험을 줄임.
  • 태그: 최소화, 리스크관리, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 성능·지연을 최적화

  • 심층 판단(Opus) / 분석·디버깅(Sonnet) / 빠른 실행(Haiku)처럼 역할·용도 기준으로 모델 라우팅을 결정하면 처리 성격에 맞춘 성능·응답시간 이점을 얻을 수 있음.
  • 태그: 모델선택, 라우팅, 성능

  • 💡 [발견] 로컬 툴체인(Codex CLI)에서 모델 오버라이드 지원 확인

  • Codex CLI는 -m/--model 옵션과 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인해 운영 환경에서 모델 전환을 자동화할 근거를 확보함.
  • 태그: 툴체인, 운영

  • 🔄 [개선] 에이전트 확장 시 역할 세분화로 책임 분산

  • 에이전트 수를 8→12로 확장하면서 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등 역할을 추가해 각 기능의 전문성과 병렬 처리 능력을 높임.
  • 태그: 조직화, 스케일링, 역할분담

  • 🔧 [해결] 대량 LLM 호출 통계로 안정성·비용 감시

  • 호출 수, 성공률, 프롬프트/응답량, 모델별 레이턴시를 지속 집계해 에러·비용·지연을 모니터링하고 의심스러운 모델(성공률 0% 등)을 빠르게 식별함.
  • 태그: 모니터링, 운영계획, 지표

  • 📚 [교훈] 초기 정보 부정확성은 빠른 정정으로 정확도 유지

  • gpt-5.4-mini 공개 여부 관련 초기사실은 불확실했으나 곧 정정해 문서 상태를 업데이트함 — 의사결정 로그에 정정 내역을 남겨 추후 혼란을 줄임.
  • 태그: 투명성, 정정, 로그

  • 💡 [발견] 전쟁·지정학 이슈가 특정 섹터(방산·에너지·금 등)에 직접적 수혜를 줌

  • 대화 로그에서 전쟁 이슈가 방산·에너지·금·사이버보안·해운·비료 등 섹터별로 실질적 수익률 상승과 종목별 수혜 연결고리를 보여줌 — 이벤트→섹터 매핑 패턴 확인.
  • 태그: 도메인인사이트, 금융분석

  • 🔄 [개선] 회복(recovery) 리포트 자동화와 유닛 테스트 병행

  • recovery 리포트 자동화 스크립트 작성 시작과 동시에 recovery_collector 유닛/통합 테스트를 작성해 자동화 결과의 신뢰도를 확보하는 워크플로우로 전환함.
  • 태그: 테스트, 자동화, 신뢰성

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽해서 부분 도입한다
  • 전체 OMC 도입이 도메인에 맞지 않을 때, 핵심 유용 기능(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 복잡도를 낮추는 방식.
  • 태그: 모듈화, 비용절감, 점진도입

  • ⚖️ [판단] 모델 라우팅 기준은 '역할별 성격'으로 결정한다

  • 다수 모델을 운용할 때 Opus는 심층 판단, Sonnet은 분석·디버깅, Haiku는 빠른 실행 등 각 모델의 강점(심층 판단 vs 빠른 실행)을 기준으로 라우팅 정책을 설계한다.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 로컬 Codex는 CLI/설정으로 모델 오버라이드 가능

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 모델 변경을 지원한다는 사실을 확인하여 운영 유연성이 보장됨.
  • 태그: 도구기능, 운영유연성

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 대응한다

  • 기능 추가 시 단순 수량 증대(8→12)가 아닌 역할별 에이전트(analyst, report-writer, pipeline-debugger-deep 등)를 만들면 책임 분리와 전문화로 유지보수가 쉬워진다.
  • 태그: 아키텍처, 책임분리, 확장성

  • 🔧 [해결] 회복(recovery) 리포트와 유닛 테스트 자동화 조합

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector의 유닛/통합 테스트를 병행하여 장애 탐지→리포트→검증 사이클을 자동화한다.
  • 태그: 자동화, 테스트, 복구

  • 💡 [발견] 모델별 성능(레이턴시·호출량) 차이가 운영 의사결정에 영향

  • 세션 통계에서 모델별 호출수·평균 레이턴시가 크게 다르므로 비용·응답시간 트레이드오프를 고려해 모델 선택·우선순위를 정해야 함.
  • 태그: 관찰, 운영지표, 성능

  • 📚 [교훈] 공식 문서 확인 후 결론 정정해야 한다

  • 08:14에 gpt-5.4 mini 공개 여부를 확인하지 못했다가 08:16에 공식 문서로 정정함 — 중요한 외부 사실은 즉시 공식 출처로 재확인하고 로그에 정정 기록을 남길 것.
  • 태그: 검증, 문서화, 정정절차

  • ⚖️ [판단] 전체 도입 vs 부분 적용은 도메인 적합성으로 결정

  • OMC 같은 큰 시스템은 팀의 도메인 적합성을 기준으로 전체 도입을 하지 않고, 적합한 부분만 체리픽해서 적용할지 결정한다.
  • 태그: 전략, 도메인적합성, 리스크관리

2026-03-19

  • 🔧 [해결] 문제 많은 기능은 체리픽으로 최소한만 적용
  • OMC 전체 도입이 도메인 불일치로 비효율적일 때, 필요한 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 체리픽 적용하여 개발 비용과 위험을 줄임.
  • 태그: 체리픽, 범위관리, 리스크저감

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 성능·목적에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 라우팅을 적용해 각 모델에 맞는 작업을 배분함.
  • 태그: 모델선택, 역할분리, 성능최적화

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 모델을 변경할 수 있음이 확인되어, 로컬 환경에서 모델 전환이 가능함.
  • 태그: 툴옵션, 운영환경

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 8개 에이전트를 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문화된 역할을 추가함으로써 책임 분리와 병렬 처리 능력을 향상시킴.
  • 태그: 구조개선, 스케일링, 전문화

  • 🔧 [해결] 자동 리커버리 리포트·테스트로 신뢰도 확보

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합테스트를 도입해 복구 로직의 신뢰성과 재현 가능성을 높임.
  • 태그: 자동화, 테스트, 복구

  • 💡 [발견] 모델별 호출 통계는 성능·비용 판단 기준

  • 모델별 호출 수·성공률·평균 레이턴시 수집을 통해 어떤 모델을 더 많이, 언제 쓰는지 파악하여 라우팅·비용 최적화를 지원함.
  • 태그: 관찰, 메트릭, 운영효율

  • 📚 [교훈] 초기 과도한 전체 도입은 낭비를 초래함

  • OMC 전체를 한꺼번에 도입하려다보니 도메인 불일치로 비효율이 발생 — 이후에는 먼저 필수 기능만 체리픽하고 점진 확장하는 방식 선호.
  • 태그: 실수, 범위통제, 점진적도입

  • ⚖️ [판단] 외부 정보 정정 시 즉시 로그 갱신

  • gpt-5.4-mini 공개 여부가 정정되자 의사결정 로그를 업데이트해 사실 기반 문서 상태를 유지함 — 정보 변경 시 즉시 기록하는 것을 기준으로 함.
  • 태그: 문서정합성, 변경관리

  • 🔧 [해결] 전문성 맞춤 배포로 역할-도메인 정렬

  • 코드 개발 전문 영역에는 OMC 전체가 아니라 개발에 맞춘 체리픽만 적용해 도메인과 도구의 정렬을 맞춤.
  • 태그: 도메인정렬, 배포전략

2026-03-19

  • ⚖️ [판단] 부분 체리픽으로 적용 결정
  • 전사적(OMC) 도입 대신 도메인 적합성 기준으로 핵심 3가지를 골라 체리픽 적용(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 전 범위 적용보다 '도메인 적합성'을 먼저 판단해 범위를 줄임
  • 태그: 의사결정, 범위관리, 도메인_적합성

  • 🔄 [개선] 3단계 모델 라우팅으로 역할 분담

  • 모델을 기능별로 분류(심층 판단→Opus, 분석·디버깅→Sonnet, 빠른 실행→Haiku)하여 요청 성격에 맞게 라우팅함으로써 효율과 확장성 개선
  • 태그: 아키텍처, 모델_라우팅, 효율성

  • 💡 [발견] 외부 사건→원자재 공급 차질→섹터별 수혜 연결

  • UAE Shah 피격(사건) → 황(Sulphur) 공급 5% 차질(원인) → 인산비료 원료 부족(영향) → 비료·농업 섹터 종목 급등(결과). 사건→공급→수혜 섹터로 연결하는 인과 맵을 만들면 투자 추천의 근거가 된다
  • 태그: 인과관계, 시장분석, 섹터맵

  • 🔧 [해결] 사용자 불만 대응 패턴 — 사과·범위 확대·구조화된 제시

  • 사용자 불만(예: 특정 종목 미추천)에 대해 먼저 사과한 뒤, 관련 이슈 전체 맵(섹터별 요약·대표 종목)을 구조화해서 제공하여 신뢰 회복과 정보 전달을 동시에 달성
  • 태그: 대화운영, 고객응대, 정보전달

  • 📚 [교훈] 공식 문서 확인을 통한 사실 정정 필요

  • 초기에 'gpt-5.4 mini 공개 확인 불가'라고 기록했다가 이후 공식 Models 문서에서 공개 표기를 확인하여 정정. 중요한 사실(특히 공개 여부·버전)은 공식 소스로 재확인 후 결정·보고해야 함
  • 태그: 검증, 문서확인, 운영_절차

  • 🔄 [개선] 복구 리포트 자동화 + 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행하여 복구 흐름의 신뢰성과 재현성을 높임(자동화 도구 + 테스트 조합)
  • 태그: 자동화, 테스트, 운영_신뢰성

  • 💡 [발견] 운영 지표로 모델/세션 성능 모니터링

  • 세션별 LLM 호출 통계(총 호출, 성공률, 프롬프트·응답 총량, 모델별 평균 레이턴시)를 지속 기록하여 모델 성능·비용·병목을 파악하는 표준 관찰 지표로 활용함
  • 태그: 모니터링, 지표, 운영_관찰성

  • 📚 [교훈] 편향된 주제 집중이 사용자 요구를 놓칠 수 있음

  • 대화에서 에너지 섹터에만 집중하다가 사용자가 불만 제기(특정 종목 미소개). 주제 편향 시 사용자 기대를 확인하고 범위를 넓혀 재검토해야 함
  • 태그: 사용자중심, 검증, 대화전략

2026-03-19

  • 🔧 [해결] 필요 없는 전체 도입 대신 체리픽으로 핵심만 적용
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지를 선별하여 구현함. 전체 도입 대신 '핵심 기능 우선 적용' 방식으로 리스크와 작업량을 줄이는 패턴.
  • 태그: 적용전략, 리스크관리, 우선순위

  • 🔧 [해결] 모델 역할에 따라 3단계 라우팅 분리

  • 모델 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)으로 기능을 나눠 호출 라우팅을 구성함. 작업 특성에 맞는 모델을 라우팅해 응답 속도와 판단 깊이를 최적화하는 패턴.
  • 태그: 모델라우팅, 성능최적화, 아키텍처

  • ⚖️ [판단] 도메인 적합성으로 전체 도입 여부 판단

  • 새 기술이나 프레임워크 도입 시 '우리 팀의 도메인 적합성'을 우선 검토하여 전체 도입 대신 일부만 채택할지 결정함. 도메인 불일치 시 비용 대비 효과가 낮아지는 점을 근거로 삼음.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] LLM 호출 통계는 모델 선택과 신뢰도 판단에 유용

  • 모델별 호출 수·성공률·평균 레이턴시 통계를 통해 어떤 모델이 실제 워크로드에 적합한지, 실패 패턴은 없는지 식별함. 통계 기반으로 모델 오버라이드나 대체 계획을 세움.
  • 태그: 관찰, 메트릭, 모델선택

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 에이전트 수를 8→12로 확장하여 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 특화 역할을 추가함. 단일 에이전트에 집중된 책임을 분리해 병렬 처리와 유지보수를 개선하는 워크플로우 변경.
  • 태그: 조직화, 확장성, 워크플로우

  • 📚 [교훈] 정확성 확보 전까지 '정정 로그'를 남겨 혼선을 줄여야 함

  • 08:15 의사결정에서 공개 여부를 잘못 판단했다가 08:16에 정정함. 중요한 사실(문서 근거 등)은 확인 즉시 로그에 남기고, 정정이 있을 경우 빠르게 갱신해 추적 가능하게 해야 함.
  • 태그: 운영교훈, 투명성, 버전관리

  • 🔧 [해결] 회복 자동화 스크립트와 테스트 우선 작성

  • recovery 리포트 자동화 스크립트를 만들고 recovery_collector 유닛/통합 테스트를 작성함. 장애 대응은 자동화 스크립트+테스트로 먼저 확보해 수동 개입을 줄이는 패턴.
  • 태그: 신뢰성, 자동화, 테스트

  • 💡 [발견] 도메인 이벤트(전쟁, 가스전 피격)가 투자 섹터 연결성에 강한 영향

  • 대화에서 전쟁·에너지 사건이 방산·에너지·금·사이버보안·비료 등 섹터별 수혜를 직접적으로 촉발함을 관찰. 외부 거시 이벤트는 도메인별 영향 맵으로 빠르게 전환해 의사결정에 활용할 수 있음.
  • 태그: 인사이트, 도메인연결, 이벤트영향

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 도입
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체 적용 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 핵심 3가지를 선택해 적용함으로써 불필요한 범위 확장을 피하고 개발 효율을 유지했다.
  • 태그: 범위관리, 체리픽, 효율

  • ⚖️ [판단] 모델 라우팅은 작업 성격 따라 역할 분리

  • 심층 판단 작업은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 작업 특성(심층 vs 분석 vs 실행)을 기준으로 모델 라우팅을 결정했다. 즉 작업 성격을 기준으로 모델을 배치한다.
  • 태그: 모델선택, 라우팅, 작업분류

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원한다는 점을 확인해 로컬 환경에서 모델 전환이 가능함을 발견했다.
  • 태그: 도구능력, 환경설정

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분화

  • 기존 에이전트 집약(8개)을 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 특화 에이전트를 추가함으로써 책임 분리와 병렬 처리 능력을 높였다.
  • 태그: 아키텍처, 스케일링, 책임분리

  • 🔧 [해결] 복구 리포트 자동화 → 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector의 유닛/통합 테스트를 작성해 자동화와 검증을 병행하여 신뢰도를 확보하는 워크플로우를 선택했다.
  • 태그: 테스트, 자동화, 복구

  • 💡 [발견] LLM 호출 통계로 모델별 비용·성능 비교 가능

  • 총 호출·성공률·프롬프트·응답량·평균 레이턴시 등 지표를 모델별로 수집해 어떤 모델이 저지연·고신뢰인지 비교할 수 있음을 확인했다(예: sonnet 낮은 레이턴시).
  • 태그: 관찰, 메트릭, 비교

  • 📚 [교훈] 초기 확인 부정확성 → 즉시 정정 기록

  • 08:14에 gpt-5.4 mini 공개 여부를 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기를 확인해 정정했다. 초기 불확실한 판단은 빠르게 검증 후 정정하고 로그에 남겨야 함을 보여준다.
  • 태그: 검증, 정정, 기록

  • ⚖️ [판단] 도메인 적합성 우선 판단 기준

  • 새 기술이나 방식을 도입할 때 '팀의 전문성(도메인 적합성)'을 우선 판단 기준으로 삼아, 도메인과 맞지 않으면 전면 도입을 피하고 부분 적용(체리픽)으로 대체한다.
  • 태그: 의사결정기준, 도메인적합성

  • 🔄 [개선] 핵심 기능만 추려 빠르게 적용하는 방식

  • 전체 시스템을 바꾸는 대신 핵심 기능(모델별 에이전트 분리, learner 패턴, 사전 정리 스크립트)만 골라 빠르게 적용하는 방식으로 리스크를 줄이고 반복적으로 개선한다.
  • 태그: 점진배포, 리스크관리, 빠른실행

2026-03-19

  • 🔧 [해결] 도메인 비적합시 체리픽(필수 항목만 도입)
  • OMC 전체 도입이 불필요하다고 판단될 때, 도메인 적합성 기준으로 핵심 3개 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 구현하여 비용과 복잡도를 줄임.
  • 태그: 체리픽, 범위결정, 비용절감

  • 🔧 [해결] 모델 라우팅으로 역할 분리

  • 작업 성격에 따라 모델군을 3단계로 나눔(심층 판단용 Opus, 분석·디버깅용 Sonnet, 빠른 실행용 Haiku) — 각 모델에 맞춘 에이전트 배치로 처리 효율과 응답 품질을 높임.
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • ⚖️ [판단] 기술 도입 판단은 '도메인 적합성' 기준으로

  • 새 기법이나 프레임워크 도입 여부를 판단할 때는 팀/프로덕트의 도메인 적합성을 최우선으로 삼아 전체 도입 vs 부분 체리픽을 결정함.
  • 태그: 판단기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출 특성 차이 관찰

  • 같은 작업에서 모델별 호출 수와 평균 레이턴시가 크게 다르며(예: claude-sonnet 평균 ~4s, gpt-5-mini 평균 ~11s~14s), 이를 기반으로 라우팅·비용·성능 전략을 세울 수 있음.
  • 태그: 관찰, 성능측정, 라우팅근거

  • 🔄 [개선] preemptive-compaction 훅으로 리소스 관리 자동화

  • preemptive-compaction 스크립트(hook)를 도입하여 세션/에이전트별 리소스·데이터를 미리 정리함으로써 장기 실행 시 성능 저하를 방지함.
  • 태그: 자동화, 리소스관리, 운영개선

  • 🔄 [개선] learner 패턴 추출으로 반복작업 표준화

  • 세션에서 반복적으로 유효했던 처리·프롬프트 패턴을 scripts/session_learner.py로 추출해 재사용 가능한 에이전트/스크립트로 전환하여 개발 속도와 일관성 개선.
  • 태그: 지식재사용, 자동화, 워크플로우

  • 📚 [교훈] 공식 문서 확인 없이 확정 결론 내리지 않기

  • 08:15에 gpt-5.4-mini 공개 불가로 결론 냈다가 08:16 정정이 발생 — 외부(공식) 출처를 즉시 확인하고 확정 전 재검증하는 절차 필요.
  • 태그: 검증절차, 실수교훈

  • 📚 [교훈] LLM 통계(호출·성공률·에러)로 운영 의사결정 보조

  • 운영중인 LLM 호출 통계(총 호출, 성공률, 에러 수, 프롬프트/응답량)를 정기적으로 수집해 모델 선택·재시도·자동화 범위를 조정하는 루프를 만들 것.
  • 태그: 운영지표, 모니터링, 의사결정

  • 💡 [발견] 작업 유형과 모델 안정성은 별개 판단 축

  • 같은 환경에서 호출 성공률은 높으나 일부 모델은 호출 수에 비해 응답량이나 레이턴시 특성이 달라, 안정성(성공률)만으로 모델 적합도를 판단하면 안 됨—목표 지표(레이턴시, 응답품질)를 함께 고려해야 함.
  • 태그: 관찰, 모델선택, 품질지표

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 체리픽으로 핵심만 도입
  • 전체 OMC 도입이 도메인에 맞지 않다고 판단될 때, 전면 도입 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 핵심 3가지만 선별해 적용하여 비용과 복잡도를 줄임
  • 태그: OMC, 범위관리, 비용절감

  • ⚖️ [판단] 모델 라우팅은 작업 성격별로 분리

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku로 3단계 모델 라우팅을 적용해 작업 특성에 맞는 모델을 선택함
  • 태그: 모델선택, 성능, 라우팅

  • 💡 [발견] 모델별 레이턴시·호출 특성이 운영에 영향

  • 대량 호출 환경에서 모델별 평균 레이턴시와 성공률이 다르므로(예: cliproxy/claude-sonnet 낮은 레이턴시), 라우팅과 비용/응답성 설계에 반영해야 함
  • 태그: 운영관찰, 모니터링

  • 🔄 [개선] 에이전트 확장으로 역할 분리

  • 기존 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 책임을 분리해 병렬 처리와 전문화로 안정성·확장성 향상
  • 태그: 아키텍처, 스케일링, 책임분리

  • 🔧 [해결] 모델 불확실성은 문서 교차검증으로 보완

  • gpt-5.4 mini 공개 여부에 대해 처음에는 확인 불가로 기록했다가 공식 문서 재검토로 정정하여, 외부 문서/CLI 옵션(config.toml, -m) 검증으로 불확실성을 해소함
  • 태그: 검증절차, 신뢰성

  • 📚 [교훈] 초기 판단을 바로 확정하지 말고 재검증하라

  • 08:15에 공개 확인 불가로 기록한 뒤 08:16에 정정된 사례에서 보이듯, 외부 사실은 즉시 확정하지 않고 문서/소스 교차검증을 거쳐 업데이트해야 혼선이 줄어듦
  • 태그: 교훈, 검증

  • 💡 [발견] LLM 호출량·성공률·프롬프트 길이는 운영 지표가 됨

  • 세션별 총 호출, 성공률, 프롬프트·응답 총량, 에러 수 등 지표를 주기적으로 집계하면 모델 변경·성능 이슈·자동화 효과를 정량적으로 판단할 수 있음
  • 태그: 계측, 지표

  • 🔄 [개선] 자동화 스크립트와 유닛테스트 병행으로 안정성 확보

  • recovery 리포트 자동화 스크립트를 작성하면서 동시에 recovery_collector 유닛/통합 테스트를 작성해 자동화된 기능이 회복 시나리오에서 검증되도록 함
  • 태그: 테스트, 자동화, 신뢰성

2026-03-19

  • 🔧 [해결] 대규모 기능은 체리픽으로 쪼개기
  • 전체 OMC 도입 대신 도메인 적합한 핵심 3가지를 선택해 단계별로 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 큰 시스템을 한꺼번에 도입하기보다 핵심만 선택해 빠르게 적용한다.
  • 태그: 모듈화, 빠른실행

  • 🔧 [해결] 모델 역할에 따른 라우팅 설계

  • 작업 특성에 따라 모델 라우팅(심층 판단용 Opus, 분석·디버깅용 Sonnet, 빠른 실행용 Haiku)으로 책임을 분리해 효율과 응답속도를 최적화한다.
  • 태그: 아키텍처, 모델선택

  • ⚖️ [판단] 도입 여부는 도메인 적합성 기준으로 결정

  • 새 방법론(예: OMC)을 도입할 때는 개발 팀의 전문성과 도메인 적합성을 우선 판단해 전면 도입 대신 부분 체리픽으로 제한한다.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·성공률 차이 관찰

  • 세션 통계에서 모델별 호출 수, 성공률, 평균 레이턴시가 크게 달라 라우팅과 비용/성능 트레이드오프 반영 필요함(예: sonnet이 레이턴시 낮고 호출 많음).
  • 태그: 관찰, 성능계측

  • 🔄 [개선] 프롬프트·응답량 모니터링으로 작업 규모 관리

  • 프롬프트 총량과 응답 총량, 호출 수를 지속 측정해 작업당 LLM 비용과 병목을 파악하고 스크립트·테스트 자동화로 호출 효율을 높임.
  • 태그: 운영효율, 모니터링

  • 🔧 [해결] 작업별 에이전트 확장으로 역할 분담

  • 에이전트를 필요 기능별로 늘려(analyst, report-writer, pipeline-debugger-deep 등) 책임을 분산시키고 병렬 작업을 증가시켜 처리량을 높인다.
  • 태그: 오케스트레이션, 스케일링

  • 📚 [교훈] 공식 문서 확인 후 결론 정정하기

  • 초기에는 gpt-5.4 mini 공개 여부를 확인하지 못해 다르게 기록했다가 공식 문서에서 공개 표기 확인 후 정정함—중요 결정/보고 전 공식 출처 재검증 필요.
  • 태그: 검증, 절차

  • 🔄 [개선] 자동 리커버리·테스트 추가로 신뢰성 확보

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 도입해 장애 복구 흐름과 회복 보고를 자동화하고 안정성을 높임.
  • 태그: 테스트, 자동화

2026-03-19

  • 🔧 [해결] 모든 변경은 체리픽으로 선별 적용
  • 대규모 OMC 도입 대신 도메인에 맞는 핵심 기능 3가지를 선택해 부분 적용(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)으로 비용과 리스크를 줄임
  • 태그: 점진적도입, 리스크관리

  • 🔧 [해결] 모델 역할에 따라 라우팅 분리

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델 라우팅해 각 모델의 강점을 살림
  • 태그: 모델라우팅, 역할분담

  • ⚖️ [판단] 전체 도입 vs 체리픽 판단 기준

  • 기술이 도메인 적합하지 않으면 전체 도입을 피하고, 핵심 가치가 높은 소수 기능만 체리픽해 적용하는 것이 우선
  • 태그: 도입판단, 비용편익

  • 💡 [발견] 프롬프트·응답 비율 편차 관찰

  • Prompt 총량에 비해 응답 총량이 훨씬 작음 → 프롬프트 설계/컨텍스트 길이가 호출 비용과 레이턴시에 큰 영향을 줌
  • 태그: LLM운영, 비용관찰

  • 💡 [발견] 모델별 레이턴시 차이와 역할 매칭

  • cliproxy/claude-sonnet-4-6의 레이턴시가 짧아 분석·디버깅에 적합하고, github-copilot/gpt-5-mini는 레이턴시가 길지만 심층 작업에 사용됨
  • 태그: 성능관찰, 모델선택

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트 수를 늘려(8→12) 역할을 세분화함으로써 각 에이전트의 책임을 명확히 하고 작업 병렬화를 늘림
  • 태그: 워크플로우개선, 조직화

  • 📚 [교훈] 문서 정정과 검증 반복의 중요성

  • 08:14에 공개 확인 불가로 기록했다가 08:16에 정정함 → 외부 사안은 문서·공식 소스 재검증 절차를 삽입해야 함
  • 태그: 검증절차, 운영실수

  • 📚 [교훈] 모델 오버라이드 설정은 운영 유연성 확보

  • Codex CLI의 -m/--model 및 config.toml 지원을 확인해두면 필요시 신속히 모델을 전환해 실패 리스크를 낮출 수 있음
  • 태그: 운영팁, 유연성

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 적용
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체 적용 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 세 가지만 선택적으로 체리픽해서 적용함으로써 개발 비용과 위험을 줄였다.
  • 태그: 적응적도입, 리스크절감

  • ⚖️ [판단] 모델 라우팅은 역할(심층/분석/빠른실행) 기준

  • 에이전트 기능에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 모델 라우팅을 결정해 각 모델에 맞는 작업을 배치했다.
  • 태그: 모델선정, 역할기반

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 기능을 제공함

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인해 로컬 환경에서 모델 테스트 및 전환이 가능함을 발견.
  • 태그: 도구능력, 운영유연성

  • 📚 [교훈] 공식 문서 확인 오류 → 즉시 정정 기록 필요

  • 08:15에 gpt-5.4 mini 공개를 확인 불가로 기록했다가 08:16에 공개 표기 확인으로 정정했다. 외부 정보 판단은 즉시 검증하고 변경사항은 의사결정 로그로 남겨 혼선 방지해야 한다.
  • 태그: 검증절차, 투명성

  • 🔄 [개선] 에이전트 확장 시 역할별 세분화로 처리량 확보

  • 에이전트를 8개에서 12개로 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 책임을 분리하고 특정 작업군의 처리량·전문성을 높였다.
  • 태그: 확장전략, 역할분리

  • 🔧 [해결] 복구 리포트 자동화 + 유닛/통합 테스트로 신뢰성 확보

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 장애 복구 흐름의 반복 가능성·신뢰성을 개선했다.
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 모델 성능·비용 인사이트 확보

  • 세션별 호출수·성공률·레이턴시·프롬프트·응답량을 집계해 어떤 모델이 빠르고 안정적인지(예: sonnet 평균 레이턴시 낮음)를 파악, 라우팅·비용 결정을 돕는다.
  • 태그: 모니터링, 운영인사이트

  • 📚 [교훈] 초기 과다 적용보다 작은 범위 검증 우선

  • OMC를 전체로 도입하려다 도메인 부적합을 이유로 축소 적용한 사례에서 알 수 있듯, 새 프레임워크는 작은 범위로 먼저 검증하는 것이 안전하다.
  • 태그: 실험설계, 점진적배포

2026-03-19

  • 🔧 [해결] 도메인 불일치시 체리픽으로 핵심만 도입
  • OMC 전체 도입이 도메인에 맞지 않을 때 전체 적용을 피하고, 코드 개발에 적합한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용하여 비용을 줄이고 효과를 유지함.
  • 태그: 의사결정, 범위관리, 효율화

  • ⚖️ [판단] 모델 라우팅은 역할(심층/분석/빠른실행) 기준으로 분리

  • 에이전트 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 목적·역할 기준으로 세분화하여 각 모델에 적합한 작업을 할당함.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 플래그와 config.toml의 model 키로 로컬 환경에서 모델을 변경할 수 있음(문서 검증을 통해 확인됨).
  • 태그: 도구, 운영

  • 💡 [발견] LLM 호출 통계로 성능·안정성 판단

  • 총 호출·성공률·프롬프트·응답량·에러 수와 모델별 평균 레이턴시를 모니터링하면 어떤 모델이 안정적이고 효율적인지 판단하는 근거가 됨(세션별 누적 통계 사용).
  • 태그: 관찰, 모니터링

  • 🔄 [개선] 에이전트 확장 시 역할 추가로 세분화

  • 기존 에이전트 수를 늘려(8→12) analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전담 역할을 두어 책임과 기능을 명확히 분리함으로써 유지보수성과 전문성을 높임.
  • 태그: 조직, 운영개선

  • 🔧 [해결] 빠른 오류 대응용 자동화 스크립트와 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하고 곧바로 recovery_collector의 유닛/통합 테스트를 작성하여 자동화 도입 시 회귀를 방지하고 신뢰도를 확보함.
  • 태그: 테스트, 자동화, 신뢰성

  • 📚 [교훈] 공식 문서 확인의 중요성 — 초기 정보 정정

  • 08:14에 gpt-5.4 mini 공개 여부를 불확실하다고 판단했다가 08:16에 공식 문서에서 공개 표기를 확인함. 초기 불확실성은 빠른 재검증 프로세스로 바로잡아야 함.
  • 태그: 절차, 검증

  • 💡 [발견] 시장 변화(전쟁)와 섹터별 수혜 연관 규칙화

  • 전쟁·국제사건이 발생하면 방산·에너지·금·사이버보안·해운·비료 등이 수혜를 받는 패턴이 관찰되며, 관련 종목(예: LMT, RTX, XOM, GLD, CRWD, MOS 등)을 우선 점검하는 규칙이 효과적임.
  • 태그: 도메인지식, 투자분석

2026-03-19

  • 🔧 [해결] 문제별 소규모 체리픽으로 도입 결정
  • 전체 OMC 도입은 도메인 불일치로 비효율적이라 판단하고, 필요한 기능(모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction)만 선별해 적용함으로써 개발 비용을 줄이고 효과는 유지함.
  • 태그: 의사결정, 범위절제, 효율성

  • ⚖️ [판단] 모델 라우팅은 기능별로 분리

  • 심층 판단·분석·빠른 실행 같은 역할을 기준으로 모델 라우팅(예: Opus/ Sonnet/ Haiku)을 구성하면 책임 분담과 성능 최적화가 가능하다고 판단함.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 작업별 LLM 호출 패턴과 성능 차이 관찰

  • 세션별로 모델 호출 수·성공률·평균 레이턴시를 수집해 어떤 모델이 어떤 작업에 적합한지(예: sonnet 낮은 레이턴시, gpt-5-mini 일부 호출 실패)를 파악함.
  • 태그: 모니터링, 성능분석

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트 수를 늘려(8→12) 전문화된 역할(analyst, report-writer, pipeline-debugger-deep 등)을 배치해 병렬 처리와 책임 분리를 개선함.
  • 태그: 조직화, 스케일링

  • 🔧 [해결] 정정 프로세스 도입으로 정보 업데이트

  • 초기 판단(공식 문서 미확인) 후 빠르게 정정(공식문서에서 gpt-5.4-mini 공개 확인)해 문서·로그를 최신 상태로 유지함 — 빠른 피드백 루프 적용.
  • 태그: 검증, 정정

  • 📚 [교훈] 작업 단위로 체계적 로그·아티팩트 남기기

  • 각 완료 작업마다 생성된 파일과 스크립트를 명시하고 호출 통계를 기록한 덕분에 이후 재현·디버깅이 쉬워졌음 — 작업 시작 시 아티팩트 규칙을 지킬 것.
  • 태그: 운영, 재현성

  • 💡 [발견] 도메인 적합성 우선 판단해야 함

  • OMC 전체 도입 대신 도메인 적합성(코드 개발 전문성 vs OMC 특성)을 고려해 부분 도입을 선택한 것이 더 합리적임을 확인함.
  • 태그: 도메인지식, 투입대비성과

  • 🔄 [개선] 자동화 스크립트→유닛/통합 테스트 흐름 확립

  • recovery 리포트 자동화 스크립트 작성 후 바로 recovery_collector 유닛·통합 테스트를 추가해 자동화→검증의 사이클을 빠르게 돌리는 워크플로우로 전환함.
  • 태그: CI, 테스트자동화

2026-03-19

  • 🔧 [해결] 문제별 모델 체리픽으로 효율화
  • 전체 OMC 도입 대신 도메인 적합성 기준으로 핵심 3가지를 선별(cherry-pick)해 모델별 에이전트 분리 + learner 패턴 추출 + preemptive-compaction을 적용하여 개발 비용과 복잡도 줄임
  • 태그: 모델배치, 비용절감, 체리픽

  • 🔧 [해결] 3단계 모델 라우팅으로 역할 분담

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 라우팅하여 각 모델의 강점을 살리고 처리 지연·비용을 최적화함
  • 태그: 모델라우팅, 역할분담, 성능최적화

  • ⚖️ [판단] 전체 도입 vs 선택적 체리픽 판단 기준

  • 플랫폼 전체 도입은 도메인 적합성이 낮으면 비효율 → 도메인 적합성·개발 비용·우선순위에 따라 '필요한 기능만 체리픽'하는 쪽을 선택함
  • 태그: 의사결정, 범위관리

  • 💡 [발견] 모델별 레이턴시·호출 패턴 차이

  • 같은 세션에서도 모델별 평균 레이턴시가 크게 다르게 나타남(github-copilot 느림, claude-sonnet 상대적으로 빠름) → 작업 유형에 따라 모델 선택이 레이턴시/효율에 큰 영향
  • 태그: 관찰, 성능지표

  • 🔧 [해결] 로컬 CLI와 config로 모델 오버라이드

  • Codex CLI의 -m/--model 및 config.toml의 model 키를 활용해 로컬에서 모델을 빠르게 전환하여 공식 가용성 확인 전에도 테스트 가능하도록 함
  • 태그: 툴링, 실행편의

  • 🔄 [개선] 자동화 대상 우선순위 분리

  • 많은 호출과 테스트가 필요한 recovery/recovery_collector 개발은 자동화(스크립트·유닛테스트)로 우선 진행해 반복 작업 비용을 낮추도록 워크플로우를 개선함
  • 태그: 자동화, 테스트

  • 💡 [발견] 운영 통계로 신속 교정 가능

  • 프롬프트·응답 총량과 성공률·에러수를 정기적으로 수집하니 모델 실패나 공개 여부(예: gpt-5.4-mini 공개 표기 여부)를 빠르게 교정·정정할 수 있었음
  • 태그: 모니터링, 데이터기반의사결정

  • 📚 [교훈] 초기 단일해석에 의한 혼선 방지

  • 같은 날 문서상 공개 여부가 변경되어 정정 로그가 남음 → 외부 공개 여부 등 사실 확인이 불완전하면 즉시 '임시 표기' 후 확정 정보로 정정하는 절차 필요
  • 태그: 검증절차, 커뮤니케이션

  • 📚 [교훈] 모델 실패 케이스 모니터링 필요

  • 여러 세션에서 일부 모델(gpt-5-mini, qwen2.5 등)이 0% 성공률을 보였음 → 실패 원인 로깅·격리·대체 라우팅 규칙을 마련해야 함
  • 태그: 신뢰성, 오류대응

  • 🔧 [해결] 도메인별 응답 개선 위해 응답 범위 재조정

  • Q&A에서 사용자가 기대한 섹터(예: Vg) 누락 발생 → 관심사(에너지 등) 편향을 보완하기 위해 응답 전 섹터 커버리지 체크리스트를 도입하여 누락 방지
  • 태그: 응답품질, 사용자피드백

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽(선택적 도입)
  • 전체 OMC 도입은 도메인과 맞지 않으면 피하고, 필요한 기능(모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction)만 선별 적용하여 비용과 복잡도를 낮춘다.
  • 태그: OMC, 범위관리, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할 기준으로 분리

  • 에이전트 역할(심층 판단 vs 분석·디버깅 vs 빠른 실행)에 따라 모델 라우팅(Opus/ Sonnet/ Haiku)하고, 각 모델을 목적에 맞춰 배치하는 방식으로 성능·지연·정확성 균형을 맞춘다.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 로컬 툴은 모델 오버라이드 지원 확인 필요

  • Codex CLI는 -m/--model 플래그 및 config.toml의 model 키로 모델을 변경할 수 있어, 공식 공개 여부와 별개로 로컬 환경에서 모델 전환이 가능함을 확인했다.
  • 태그: 툴체크, 모델오버라이드

  • 🔄 [개선] 에이전트 추가로 역할 세분화

  • 기존 에이전트 수를 8→12로 확장해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문화된 역할을 추가함으로써 책임 분산과 작업 병렬화가 가능해짐.
  • 태그: 조직화, 스케일업, 역할분화

  • 🔧 [해결] 프롬프트·모델 통계로 안정성 모니터링

  • 총 호출·성공률·프롬프트/응답량·에러 수·모델별 레이턴시 같은 지표를 주기적으로 집계해 모델 안정성(성공률, 에러)과 비용(레이턴시, 호출수)을 동시에 감시한다.
  • 태그: 관찰, 모니터링, 지표

  • 💡 [발견] 동일 세션 내 정보 정정이 빠르게 발생

  • 08:14의 비공개 판단이 08:16에 공식 문서 확인으로 정정됨 — 빠른 피드백과 문서 재검증 프로세스가 필요함을 보여줌.
  • 태그: 검증, 문서확인, 피드백

  • 📚 [교훈] 모델 공개 여부 혼선 방지

  • 초기 판단(미공개) 후 정정(공개 확인)이 있었으므로 외부 문서/공식 소스 먼저 확인하고 내부 결론을 내릴 것. 임시 결론은 '검증 중' 상태로 표기해야 혼선을 줄인다.
  • 태그: 절차, 검증우선, 커뮤니케이션

  • 🔧 [해결] 복구 보고서 자동화 → 테스트 통합

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 병행으로 자동화 신뢰도를 높여 수동 개입을 줄인다.
  • 태그: 자동화, 테스트, recovery

  • ⚖️ [판단] 모델 선택 시 응답지연과 성공률을 함께 고려

  • 모델별 평균 레이턴시와 성공률이 상이하므로(예: gpt-5-mini 호출 실패 사례 등) 낮은 레이턴시만으로 선택하지 않고 성공률·지연·용도(심층 vs 빠른 실행)를 종합해 판단한다.
  • 태그: 모델선택, 성능트레이드오프

  • 📚 [교훈] 지표 통합으로 문제 원인 빠르게 추적

  • LLM 호출 통계(호출수, 성공률, 에러, 레이턴시)를 세션 단위로 누적하면 실패 원인(특정 모델/버전 문제)을 빠르게 좁힐 수 있으므로 지표 수집을 표준 프로세스로 만들자.
  • 태그: 교훈, 관찰, 운영

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽해서 부분 도입
  • OMC 전면 도입 대신 도메인 적합성 기준으로 핵심 3가지만 선택(cherry-pick)해 구현하여 개발 비용과 리스크를 줄임(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 범위설정, 리스크관리

  • ⚖️ [판단] 도메인 적합성으로 전면 도입 여부 결정

  • 새 시스템(OMC)을 전사적으로 도입할지 판단할 때 '코드 개발 전문성' 등 도메인 적합성을 우선 기준으로 삼아 불필요하면 부분 도입으로 전환한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델 라우팅을 역할별로 분리하면 효율이 높음

  • 세분화된 라우팅(심층 판단용 Opus, 분석·디버깅용 Sonnet, 빠른 실행용 Haiku)으로 작업 유형별로 모델·에이전트를 배치하면 응답 성능과 운영 효율이 개선됨.
  • 태그: 아키텍처, 모델선택

  • 🔄 [개선] 에이전트 수평 확장으로 책임 분리

  • 단일 에이전트에서 역할을 늘리기보다 analyst, report-writer, pipeline-debugger-deep 등으로 에이전트를 늘려 책임과 기능을 분리함으로써 유지보수성과 병렬처리 능력을 향상시킴.
  • 태그: 운영모델, 스케일링

  • 🔧 [해결] 로컬 도구로 모델 오버라이드 지원 확인 후 대체 사용

  • 공식 공개 여부가 불확실한 모델은 로컬 Codex의 -m/--model 또는 config.toml로 오버라이드 가능성을 확인해 대체 모델을 사용하거나 테스트함으로써 의존성 문제를 완화함.
  • 태그: 대체전략, 도구활용

  • 💡 [발견] LLM 호출 통계로 안정성·성능 패턴 파악

  • 모델별 호출 수·성공률·평균 레이턴시를 수집해 운영 병목(예: 특정 모델 레이턴시 높음, 실패 모델 식별)을 파악하고 대응 우선순위를 정함.
  • 태그: 관찰, 모니터링

  • 📚 [교훈] 정정 로그를 남겨 정보 변경을 명확히 할 것

  • 08:15에 공개 불확실로 기록했다가 08:16에 정정해 문서에 반영함 — 정보 확인 상태(확인/정정)를 명시적으로 남겨 혼선과 재작업을 줄여야 함.
  • 태그: 문서화, 커뮤니케이션

  • 🔄 [개선] 자동 리포트·테스트 파이프라인 조기 도입

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 조기에 작성하여 장애 복구 절차를 자동화하고 회귀를 방지함.
  • 태그: 테스트, 자동화

2026-03-19

  • 🔧 [해결] 비대상 전체 도입 대신 체리픽으로 핵심만 적용
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 필요 기능 3가지만 선별(cherry-pick)해 구현함(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 불필요한 범용 도입을 피하고 비용·복잡도를 줄이는 방식.
  • 태그: 범위결정, 효율화

  • 🔄 [개선] 모델 역할별 라우팅으로 책임 분리

  • 작업 부하·성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 라우팅을 설계해 각 모델에 맞는 책임을 분리하고 성능/레이턴시 특성에 맞춰 호출을 최적화함.
  • 태그: 아키텍처, 모델라우팅

  • 💡 [발견] 모델별 레이턴시·호출패턴 차이 확인

  • 세션 통계에서 github-copilot/gpt-5-mini는 호출당 레이턴시가 높고 호출 수는 적은 반면, claude-sonnet 계열은 호출 수가 많고 평균 레이턴시는 낮음 — 작업 성격에 따라 모델 선택 기준이 달라져야 함.
  • 태그: 모니터링, 모델선택

  • ⚖️ [판단] 공식 문서 확인 우선 vs 로컬 확인 병행

  • gpt-5.4 mini 공개 여부에서 초기엔 확인 불가 판정했다가 공식 문서 재확인으로 정정함 — 외부 공식 문서가 최종 근거이고 로컬 툴 설정(config/CLI)은 별도 검증 포인트로 취급해야 함.
  • 태그: 근거중심, 검증절차

  • 🔧 [해결] 사전 압축(preemptive compaction)으로 프롬프트 비용 제어

  • 프롬프트 총량이 매우 큰 작업에서 미리 텍스트/콘텍스트를 압축해 호출 횟수·토큰 사용을 줄이는 preemptive-compaction 훅을 도입해 비용과 지연을 줄임.
  • 태그: 비용절감, 토큰관리

  • 🔄 [개선] 에이전트 수평 확장으로 역할 전문화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 각 작업을 전담시키고 동시 처리 능력과 책임 분리를 강화함.
  • 태그: 조직구조, 스케일링

  • 📚 [교훈] 초기 판단은 빠르게 하고, 공식 근거로 곧바로 정정해야 함

  • gpt-5.4 mini 공개 여부를 둘러싼 판단이 업데이트되었음 — 빠른 초기 판단 후 공식 문서 재검토로 즉시 정정하는 워크플로우가 신뢰성 확보에 중요함.
  • 태그: 신뢰성, 데이터근거

  • 💡 [발견] 도메인 적합성에 따른 솔루션 선택 중요

  • OMC 방식이 코드 개발 도메인과 맞지 않아 전체 도입을 배제한 사례에서 보듯, 솔루션 도입 전 도메인 적합성(전문성·목적)을 우선 평가해야 실제 효과와 리스크를 예측할 수 있음.
  • 태그: 도메인적합성, 솔루션평가

2026-03-19

  • 🔧 [해결] 도메인 불일치시 체리픽으로 범위 축소
  • 모든 OMC를 도입하지 않고 코드 개발에 맞는 3개 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 적용해 불필요한 작업을 줄였다.
  • 태그: 체리픽, 범위관리, 효율

  • 🔄 [개선] 모델 라우팅을 역할별로 3단계 분리

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)으로 모델을 역할별로 라우팅해 각 모델의 강점을 살리고 호출 효율을 높였다.
  • 태그: 모델라우팅, 아키텍처, 성능

  • 🔧 [해결] 모델 오버라이드와 로컬 설정 활용

  • Codex CLI의 -m/--model 플래그와 config.toml의 model 키로 로컬 환경에서 사용할 모델을 명시적으로 변경해 배포 지연이나 공개 여부와 무관하게 테스트·전환 가능하게 했다.
  • 태그: 로컬설정, 모델전환, 운영

  • ⚖️ [판단] 공식 문서 확인으로 정보 정정

  • 초기엔 gpt-5.4 mini 공개 여부를 확인하지 못했으나 공식 Models 문서를 재확인해 공개 표기를 발견하고 의사결정을 정정했다—문서 근거 우선 정책.
  • 태그: 근거기반, 문서검증, 판단기준

  • 💡 [발견] 모델별 레이턴시·호출 패턴 차이 관찰

  • 같은 작업에서도 모델마다 평균 레이턴시와 호출 수가 크게 달라 관리 전략(어떤 모델을 언제 호출할지)을 조정해야 함을 확인했다(예: github-copilot 높은 레이턴시, sonnet 낮은 레이턴시).
  • 태그: 관찰, 성능모니터링, 운영지표

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전담 역할을 둬 책임과 기능을 명확히 분리했다.
  • 태그: 조직구조, 확장, 책임분리

  • 🔧 [해결] 사전 데이터 정리(전쟁 수혜주 맵)로 질문 대응 시간 단축

  • 사용자 질문에 대해 섹터별 핵심 종목과 요약 표를 만들어 즉시 응답 가능하도록 정보 맵을 준비해 응답 품질과 속도를 개선했다.
  • 태그: 지식정리, 응답템플릿, 도메인지식

  • 📚 [교훈] 초기 판단 미확인으로 정정 필요 발생

  • 08:15에 공개 불가로 기록했다가 08:16에 문서에서 공개 표기를 찾아 정정한 사례에서, 외부 정보는 즉시 근거 확인 후 확정해야 함을 배웠다—검증 절차 강화 필요.
  • 태그: 검증절차, 실수교훈, 정보확인

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽(선택적 도입)
  • 전체 OMC 도입이 적합하지 않을 때, 전부 적용하지 않고 도메인에 맞는 핵심 기능 3가지만 선별(cherry-pick)해 구현하여 비용과 복잡도를 줄임. (예: 코드 개발 전문이라 OMC 전체 불필요 → 3가지만 체리픽)
  • 태그: 모듈화, 비용절감, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단/분석·디버깅/빠른 실행 같은 역할 기준으로 모델·에이전트를 라우팅(예: Opus/심층, Sonnet/분석·디버깅, Haiku/빠른 실행)하여 작업 성격에 맞는 성능과 응답속도 균형을 맞춤.
  • 태그: 모델선택, 아키텍처, 성능-응답속도

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 및 model 키로 로컬에서 사용하는 모델을 변경할 수 있음—공식 문서 확인 전후 기록으로 검증됨.
  • 태그: 도구, 검증, 설정

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅 추가

  • 작업 파이프라인에 preemptive-compaction 훅을 추가해 리소스 사용과 프롬프트 길이 관리를 자동화함(파일 및 훅 스크립트 생성으로 재사용 가능).
  • 태그: 파이프라인, 리소스관리, 자동화

  • 🔧 [해결] 에이전트 수평 확장으로 역할 분담

  • 필요 기능이 늘어나면 에이전트를 추가(예: 8→12개)하여 특정 책임(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 맡겨 병렬 처리와 전문화로 처리량과 안정성 증대.
  • 태그: 스케일링, 거버넌스, 전문화

  • 📚 [교훈] 초기 공표 정보는 정정 가능성 고려

  • 같은 날 문서 공개 여부에 대해 두 차례(08:15 미확인 → 08:16 확인 정정)로 기록됨. 외부 공개 정보는 재확인 루틴을 두고 변경 기록을 남겨야 혼선 방지.
  • 태그: 검증, 커뮤니케이션, 운영절차

  • 💡 [발견] 모델별 호출·성공률·레이턴시 모니터링의 가치

  • 세션별/모델별 호출 통계(호출수, 성공률, 평균 레이턴시)를 지속 수집하여 어떤 모델이 어떤 작업에 적합한지 경험적으로 판단하고 라우팅 정책에 반영함.
  • 태그: 관찰성, 운영지표, 정책결정

  • 🔧 [해결] 복구 리포트 자동화 + 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 유닛/통합 테스트를 작성하여 자동화 신뢰도를 확보함(개발→자동화→테스트 순환).
  • 태그: 자동화, 테스트, 신뢰성

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 전체 도입 대신 핵심만 체리픽
  • OMC(새 접근법)가 전체 조직·도메인에 맞지 않으면 '전면 도입'을 강행하지 않고, 도메인에 맞는 작은 범위(핵심 3가지)만 선택해 구현하여 리스크와 작업량을 줄였다.
  • 태그: 체리픽, 리스크관리, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해 적용

  • 모델 선택을 기능별로 분리(심층 판단용 Opus, 분석·디버깅 Sonnet, 빠른 실행 Haiku)하여 각 모델의 강점을 살리고 비용·지연을 관리하는 기준으로 삼음.
  • 태그: 모델선택, 아키텍처, 비용-성능

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 설정(config.toml)의 model 키로 로컬에서 모델 교체(-m/--model) 가능한 것이 확인되어 배포·테스트 유연성이 확보됨.
  • 태그: 도구능력, 운영

  • 🔄 [개선] 에이전트 확장으로 역할을 세분화

  • 기존 에이전트 수를 늘려(8→12) analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전담 역할을 만들며 책임과 기능을 명확히 분리함으로써 병렬 작업과 디버깅 효율을 높였다.
  • 태그: 조직구조, 에이전트, 효율성

  • 🔧 [해결] preemptive-compaction으로 프롬프트 비용·길이 관리

  • 프롬프트 총량이 커지는 상황에서 preemptive-compaction 훅을 도입해 프롬프트 길이를 사전 압축·정리하여 호출 비용과 레이턴시를 제어함.
  • 태그: 프롬프트관리, 성능, 비용절감

  • 📚 [교훈] 공식 문서 확인은 반복 검증 필요

  • 초기에 gpt-5.4 mini 공개 여부에 대해 상반된 로그가 남았고, 정정 과정을 통해 최종 확인했다. 외부 문서 정보는 즉시 신뢰하지 말고 재검증 절차를 두는 것이 필요함.
  • 태그: 검증, 문서신뢰성

  • 💡 [발견] 모델별 레이턴시·성공률 편차 관찰

  • 같은 작업군에서도 모델별 호출 수와 평균 레이턴시가 크게 달라(예: cliproxy/claude-sonnet-4-6 빠름, github-copilot 느림) 라우팅과 비용 최적화의 근거가 됨.
  • 태그: 관측, 모델성능, 라우팅기준

  • 🔄 [개선] 회복(recovery) 리포트 자동화와 테스트 추가

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector 유닛/통합 테스트를 도입하여 장애 대응 흐름의 신뢰성과 반복 가능성을 높였다.
  • 태그: 자동화, 테스트, 운영복원력

2026-03-19

  • 🔧 [해결] 복잡한 시스템은 핵심만 체리픽해서 도입한다
  • OMC 전면 도입 대신 도메인 적합성을 평가한 뒤 핵심적인 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택하여 구현함으로써 불필요한 작업을 줄이고 효과를 빠르게 확인함.
  • 태그: 체리픽, 범위관리, 효율

  • 🔧 [해결] 모델 역할을 명확히 나눠 라우팅한다

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)처럼 모델 또는 에이전트를 역할별로 분리해 요청을 라우팅하면 호출 효율과 응답 품질을 높일 수 있음.
  • 태그: 모델라우팅, 역할분리, 성능

  • ⚖️ [판단] 전면 도입 vs 부분 체리픽 — 도메인 적합성으로 결정

  • 새 접근법을 도입할 때 전체 적용이 아니라 팀의 전문성과 도메인 적합성을 기준으로 전면 도입 여부를 판단하고, 적합하지 않으면 핵심 기능만 체리픽해서 적용하기로 함.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 로컬 툴은 모델 오버라이드 설정을 지원한다

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키를 통해 로컬에서 모델을 오버라이드할 수 있음이 확인되어, 공식 공개 여부와 별개로 로컬 실험이 가능함.
  • 태그: 툴특성, 실험가능성

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화한다

  • 기존 에이전트 수를 늘릴 때 특정 기능(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 분리하여 책임을 명확히 하고 확장성을 확보함.
  • 태그: 아키텍처, 확장성

  • 📚 [교훈] 초기 확인 없어 혼선 발생 → 정보 재검증 루틴 필요

  • gpt-5.4-mini 공개 여부에 대해 최초에 확인 불가 로그가 있었으나 이후 정정되었음. 외부 문서 상태는 변경될 수 있으므로 중요한 사실은 재검증 루틴을 두어 혼선을 줄여야 함.
  • 태그: 검증, 절차

  • 🔧 [해결] 복구 리포트 자동화로 반복 작업 감소

  • recovery 리포트 자동화 스크립트와 recovery_collector 테스트를 작성하여 수동 리포트 작성과 검증을 자동화함으로써 반복 작업을 줄이고 신뢰도를 높임.
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 모델 선택 근거 확보

  • 모델별 호출 수·성공률·레이턴시 통계를 수집하면 어떤 모델을 어떤 용도로 쓰면 좋은지 근거로 사용할 수 있음(예: 레이턴시 낮은 Sonnet을 분석에 집중).
  • 태그: 관찰, 메트릭기반

  • ⚖️ [판단] 성공률과 레이턴시를 함께 고려해 모델 배치

  • 단순 성공률뿐 아니라 평균 레이턴시를 고려해, 빠른 응답이 필요한 작업에는 레이턴시 낮은 모델을, 복잡한 판단에는 고성능 모델을 배치하는 기준을 채택함.
  • 태그: 모델선택, 성능기준

2026-03-19

  • 🔧 [해결] 도메인 부적합한 전면 도입 대신 체리픽으로 핵심만 적용
  • OMC 전체 도입이 도메인에 맞지 않아 전면 적용을 포기하고, 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 실용적 3가지를 선별해 구현함. 대규모 도입 전에는 핵심 기능만 선별 적용해 리스크와 작업량을 줄이는 방식.
  • 태그: 도입전략, 리스크완화, 우선순위

  • 🔧 [해결] 모델 역할에 따른 3단계 라우팅으로 작업 분산

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델 라우팅을 나눠 각 모델의 강점에 맞춰 요청을 배분함. 복합 워크로드에서 모델별 전문화로 효율·응답속도 개선.
  • 태그: 모델라우팅, 성능최적화, 역할분담

  • ⚖️ [판단] 문제 복잡도 기준으로 모델 선택

  • 심층 판단이나 장시간 추론이 필요하면 Opus 계열, 반복적 분석·디버깅엔 Sonnet, 빠른 단순 실행엔 Haiku 식으로 판단 기준을 '작업 복잡도/속도 요구'로 설정해 모델을 고름.
  • 태그: 판단기준, 모델선택

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 모델을 변경할 수 있어, 공식 문서 공개 시점과 별개로 로컬 환경에서 모델 전환이 가능함을 확인함.
  • 태그: 도구기능, 환경설정

  • 🔄 [개선] 회복 리포트·테스트 자동화 도입

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성하기 시작하여 수동 리포트·검증에서 자동화된 리포트·테스트 기반 워크플로우로 개선함.
  • 태그: 자동화, 테스트, 운영

  • 📚 [교훈] 초기 판정은 변경될 수 있으니 정정 로그를 남겨라

  • 08:15에 gpt-5.4-mini 비공개로 기록했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정함. 의사결정·정정 로그를 타임스탬프와 함께 남겨 추후 추적·감사 가능하도록 해야 함.
  • 태그: 기록관리, 투명성, 교정

  • 💡 [발견] LLM 호출 통계로 성능·안정성 지표 확보

  • 세션별 총 호출, 성공률, 프롬프트·응답 총량, 모델별 호출·평균 레이턴시를 수집해 모델별 성능과 오류율을 모니터링함. 운영 의사결정과 모델 라우팅 정책의 근거로 활용 가능.
  • 태그: 모니터링, 지표

  • 🔧 [해결] 에이전트 확장으로 역할 세분화

  • 기존 에이전트를 8개에서 12개로 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 추가)해 책임과 기능을 분리함으로써 병렬 처리와 전문화 달성.
  • 태그: 조직설계, 스케일링, 역할분화

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 채택
  • 전체 OMC 도입이 도메인에 맞지 않을 때 전면 도입 대신 '3가지 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)'만 선택해 적용함으로써 비용·복잡도를 낮추고 효과를 확보했다.
  • 태그: OMC, 체리픽, 범위결정

  • ⚖️ [판단] 모델 라우팅은 역할별 역량에 따라 분리

  • 모델을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 역할 분리해, 각 모델의 강점(심층추론 vs 빠른 응답)을 기준으로 라우팅 설계 결정을 내렸다.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 프롬프트·응답 볼륨과 모델 레이턴시 관계

  • 세션 통계에서 호출 수와 모델별 평균 레이턴시를 기록해두면 대량 호출 상황에서 어떤 모델이 비용(지연)에 유리한지 판단할 수 있음(예: sonnet이 낮은 레이턴시로 분석 작업에 적합).
  • 태그: 측정, 성능분석

  • 🔄 [개선] 에이전트 확장은 기능별로 작은 단위로 추가

  • 기존 8개에서 12개로 늘릴 때 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 기능 단위로 에이전트를 세분화하여 책임을 분리하고 확장성을 높였다.
  • 태그: 아키텍처, 확장성

  • 🔧 [해결] 모델 공개 여부 불확실 시 로컬 오버라이드 확인

  • 공식 문서에서 모델 공개 여부가 불명확할 때 로컬 Codex의 모델 오버라이드(-m/--model, config.toml)를 확인해 실제로 사용할 수 있는 대체 경로를 확보했다.
  • 태그: 운영대응, 모델전환

  • 📚 [교훈] 문서 정보는 시점에 따라 변하니 재확인 필요

  • 초기에 gpt-5.4 mini 공개 여부가 불확실하다 판단했으나 곧 공식 문서에 표기가 확인되어 문서 기반 판단은 반복 확인·정정 프로세스를 둬야 한다는 교훈을 얻음.
  • 태그: 정보검증, 절차

  • 💡 [발견] 전쟁·지정학적 사건이 섹터별 수익률에 직접적 영향

  • 대화 로그 분석에서 방산, 에너지, 금, 사이버보안, 해운, 비료 등 섹터가 지정학적 사건으로 뚜렷한 수혜를 받았음을 확인—외부 사건을 투자 섹터 맵과 바로 연결할 수 있음.
  • 태그: 도메인지식, 인사이트

  • 🔧 [해결] 대규모 LLM 호출 환경에서 성공률·에러 통계로 신뢰도 관리

  • 세션별 호출·성공률·에러 수를 꾸준히 기록해 특정 모델의 실패 패턴(예: 일부 모델 0% 성공)을 조기에 발견하고 호출 분배·대체 모델 전략을 세움.
  • 태그: 관측, 신뢰성

2026-03-19

  • 🔧 [해결] 도메인 불일치면 전체 도입 대신 체리픽 3가지 선택
  • OMC(전체 도입)가 도메인과 맞지 않을 때는 전면 적용을 포기하고, 도메인에 맞는 핵심 3가지를 선별(cherry-pick)해 구현한다 — 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction.
  • 태그: 범위결정, 최소실행, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할별/강도별로 분리

  • 다수 모델을 쓸 때는 역할과 처리 강도 기준으로 라우팅한다 — 예: Opus는 심층 판단(무거운 작업) 2개, Sonnet은 분석·디버깅 4개, Haiku는 빠른 실행 6개로 배치.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • 공식 문서와 현장 확인을 통해 Codex CLI가 -m/--model 옵션과 config.toml의 model 키를 통해 모델 변경을 지원함을 확인했다(로컬에서 모델 전환 가능).
  • 태그: 도구역량, 운영절차

  • 🔄 [개선] 에이전트 확장 시 역할 세분화로 처리량·전문성 확보

  • 에이전트를 기존 8개에서 12개로 늘리며 기능을 분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)하여 특정 작업에 특화된 에이전트를 할당하는 방식으로 확장성을 개선함.
  • 태그: 운영개선, 스케일링

  • 🔧 [해결] 회복 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하면서 recovery_collector에 대해 유닛·통합 테스트를 병행해 자동화 신뢰도를 확보하는 워크플로우를 적용함(자동화 도입 → 테스트 작성).
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 모델별 성능·비용 가시화

  • 세션별 LLM 호출 수, 성공률, 프롬프트·응답 총량, 평균 레이턴시를 집계해 어떤 모델이 더 빠르고 안정적인지(예: cliproxy/claude-sonnet-4-6의 낮은 레이턴시) 판별할 수 있음.
  • 태그: 관찰, 모니터링, 성능분석

  • 📚 [교훈] 초기 판단 정정은 빠르게 기록·수정하라

  • 08:14에 gpt-5.4 mini 공개 불가로 표기했다가 08:16에 공식 문서에서 공개 표기가 확인되어 정정함. 초기 불확실한 판단은 빠르게 검증하고 의사결정 로그에 정정 기록을 남겨 혼선 최소화.
  • 태그: 의사결정, 투명성, 버전관리

  • 🔧 [해결] 사용자 불만(종목 추천)은 섹터 맵과 대표 종목으로 응답

  • 사용자 문의(특정 종목 추천 요청)에 대해 섹터별 수익률 요약과 대표 종목 리스트, 핵심 포인트(예: 방산의 생산 증산 요청, 비료의 공급 차질 원인)를 정리해 전체 맥락을 제공함으로써 불만 대응과 정보 전달을 동시에 해결.
  • 태그: 고객응대, 정보구성

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽(선택적 도입)
  • 전체 OMC 도입이 불필요할 때는 '전면 도입' 대신 도메인에 맞는 핵심 기능 3가지만 선별 체리픽하여 적용(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 비용·복잡도 최소화하면서 가치 있는 부분만 가져옴.
  • 태그: 적용전략, 비용절감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 결정

  • 에이전트 역할과 작업 특성에 따라 모델을 라우팅: 심층 판단에는 Opus, 분석·디버깅에는 Sonnet, 빠른 실행엔 Haiku처럼 '역할 대비 모델 성능/지연' 기준으로 분리 판단.
  • 태그: 모델선택, 라우팅, 성능기준

  • 💡 [발견] 프롬프트/응답량 대비 모델 레이턴시 차이

  • 동일 작업군에서 모델별 호출·응답량과 평균 레이턴시가 크게 다름(예: cliproxy/claude-sonnet 평균 레이턴시가 낮음). 작업 성격에 따라 레이턴시·성공률 지표를 고려한 모델 선택이 중요함.
  • 태그: 관찰, 성능계측, 모델비교

  • 🔄 [개선] 자동화 스크립트 + 유닛 테스트 병행 작성

  • recovery 리포트 자동화 스크립트를 작성할 때 곧바로 recovery_collector 유닛/통합 테스트를 작성한 워크플로우: 코드 작성→동시 테스트로 회귀 방지 및 신뢰성 확보.
  • 태그: 워크플로우, 테스트, 자동화

  • 📚 [교훈] 공식 문서 확인의 빠른 정정 루프 필요

  • 초기에 gpt-5.4 mini 공개 여부가 불확실했으나 이후 정정으로 문서상 표기 확인됨. 공지·문서 관련 판단은 빠르게 확인·정정하는 루프를 두어 혼선 최소화해야 함.
  • 태그: 운영절차, 문서검증, 교정루프

  • 🔧 [해결] 역할별 에이전트 확장으로 책임 분리

  • 에이전트 수를 늘려(8→12) 기능별 책임을 분리(analyst, report-writer, pipeline-debugger-deep 등). 각 에이전트에 특화된 책임을 부여해 병렬 처리와 전문성 향상 실현.
  • 태그: 아키텍처, 확장성, 분업

  • 💡 [발견] 특정 이벤트(전쟁, 공급차질)가 섹터별 수혜로 직결됨

  • 외부 이벤트(전쟁, 가스전 피격 등)가 방산·에너지·비료·금·해운 등 섹터별로 즉각적 수익률 상승을 유발함. 투자·추천 판단시 이벤트→섹터 매핑을 빠르게 적용하면 반응형 제안 가능.
  • 태그: 도메인인사이트, 이벤트매핑, 투자

2026-03-19

  • 🔧 [해결] 문제 많은 기능은 부분만 체리픽해 적용
  • 전체 OMC 도입이 도메인 불일치로 비효율적일 때, 핵심 유망 기능 3가지를 선별(cherry-pick)해 구현한다 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 등으로 비용·복잡도 제어.
  • 태그: 체리픽, 비용절감, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 대상 작업 특성에 따라 모델 계층화(심층 판단·분석·빠른 실행)로 라우팅한다. 예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행 — 응답 품질 vs 레이턴시 기준으로 결정.
  • 태그: 모델선택, 레이턴시, 품질

  • 💡 [발견] 로컬 도구는 모델 오버라이드 지원

  • Codex CLI는 -m/--model 옵션과 config.toml의 model 키로 모델을 변경할 수 있어, 공식 공개 여부와 별개로 로컬 환경에서 모델 전환이 가능함을 확인.
  • 태그: 툴팁, 운영환경

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 필요할 때 에이전트를 늘려(예: 8 → 12) 역할을 세분화하면 분석·리포트·디버깅을 병렬화하고 책임 경계가 명확해진다.
  • 태그: 아키텍처, 확장성, 책임분리

  • 🔧 [해결] 복구 리포트 자동화로 테스트 포함

  • recovery 리포트 자동화 스크립트와 유닛/통합 테스트를 함께 작성해 복구 절차의 신뢰성·재현성을 확보한다.
  • 태그: 자동화, 테스트, 신뢰성

  • 💡 [발견] LLM 호출 통계로 모델 성능 차이 관찰 가능

  • 호출 수·성공률·평균 레이턴시를 집계하면 모델별 응답 특성(예: sonnet 낮은 레이턴시, gpt-5-mini 일부 호출 실패)을 빠르게 파악할 수 있다.
  • 태그: 관찰, 모니터링, 성능지표

  • 📚 [교훈] 초기 오판은 빠른 정정으로 보완

  • 공식 문서 확인 결과가 바뀌면(예: gpt-5.4-mini 공개 여부) 즉시 의사결정 로그를 정정해 혼선 최소화 — 정정 기록을 남기는 습관 필요.
  • 태그: 투명성, 정정, 운영

  • ⚖️ [판단] 도메인 적합성 우선으로 도구 도입 결정

  • 새 기법이나 프레임워크 도입 시 도메인 적합성(전문성 일치)을 먼저 검토하고, 적합하지 않으면 부분 적용 또는 보류한다.
  • 태그: 의사결정기준, 도메인적합성

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 도입
  • 전체 OMC 도입이 도메인에 맞지 않을 때는 전부 적용하지 않고, 적용 가능한 소수(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 복잡도를 줄임.
  • 태그: OMC, 체리픽, 범위관리

  • 🔧 [해결] 모델 특성에 따라 역할별 라우팅

  • 응답 성격(심층 판단 vs 분석·디버깅 vs 빠른 실행)에 따라 모델/에이전트를 분리(Opus/심층, Sonnet/분석·디버깅, Haiku/빠른 실행)해 라우팅하면 효율성과 응답 품질을 높일 수 있음.
  • 태그: 모델라우팅, 아키텍처

  • ⚖️ [판단] 공식 문서 우선 확인 후 로컬 도구 기능 검증

  • 모델 공개 여부 같은 사실은 먼저 공식 문서를 확인하고(예: OpenAI Models 문서), 로컬 툴의 옵션(-m/--model, config.toml)을 추가로 검증해 최종 판단을 수정함.
  • 태그: 검증, 문서확인

  • 💡 [발견] 모델별 레이턴시·성공률 차이는 라우팅 결정 근거가 된다

  • 세션별 통계에서 모델마다 평균 레이턴시와 성공률이 달라(예: sonnet이 더 빠름) 이 수치를 근거로 어떤 모델을 어떤 용도로 쓸지 결정할 수 있음.
  • 태그: 모니터링, 메트릭, 모델선택

  • 🔄 [개선] 프롬프트·응답량 모니터링을 통한 운영 조정

  • 총 호출수, 프롬프트/응답 총량, 에러 수를 정기적으로 집계해 에이전트 확장, 자동화 스크립트 작성, 테스트 보강 등 운영 개선 작업을 계획함.
  • 태그: 운영, 모니터링, 자동화

  • 🔧 [해결] 사전 정리된 에이전트 확장으로 역할 분할

  • 작업량 증가 시 기존 에이전트를 세분화(예: analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)해 책임을 분산시키고 병목을 완화함.
  • 태그: 스케일링, 에이전트관리

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅으로 리소스 관리

  • preemptive-compaction 같은 훅 스크립트를 도입해 나중에 발생할 수 있는 데이터·프롬프트 비대화를 예방하여 효율을 유지함.
  • 태그: 데이터관리, 성능

  • 📚 [교훈] 초기 사실 확인 부족은 정정 로그로 보완

  • 08:15에 공개 불확인으로 기록했다가 08:16에 공식 문서 확인 후 정정한 사례처럼, 사실 불확실 상태로 결정·기록할 때는 빠른 정정 절차와 타임스탬프를 남겨 투명성을 유지해야 함.
  • 태그: 절차, 정정, 투명성

  • 🔧 [해결] 리커버리 리포트·테스트 자동화 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector의 유닛/통합 테스트를 병행해 복구 파이프라인 신뢰도를 높임.
  • 태그: 복구자동화, 테스트

  • ⚖️ [판단] 에러 연속 발생 시 자동 비활성화 및 Ops 등록

  • 크론이나 반복 작업에서 연속 실패 패턴이 감지되면 자동으로 해당 작업을 비활성화하고 ops_todos 등으로 이슈를 등록해 수동 검토를 유도함(자가치유 정책의 일환).
  • 태그: 신뢰성, 자가치유, 크론

  • 💡 [발견] 사용자 불만 대응은 사과 + 요약 제공이 효과적

  • 대화 로그에서 사용자 불만(Vg 종목 소개 누락)에 대해 사과하고 전체 섹터 맵과 핵심 요약을 제공한 방식이 문제 해소에 유효함 — 빠른 인정과 정돈된 정보 제공이 중요.
  • 태그: 고객대응, 커뮤니케이션

2026-03-19

  • 🔧 [해결] 불필요한 전체 도입 대신 체리픽 3가지 선택
  • OMC 전체 도입은 도메인 부합하지 않아 불필요하다고 판단하고, 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 3가지만 체리픽해 적용함으로써 비용과 복잡도를 줄이고 효과는 유지함.
  • 태그: 범위절감, 우선순위, 리스크관리

  • 🔧 [해결] 모델 역할별 라우팅으로 책임 분담

  • 심층 판단(Opus)·분석·디버깅(Sonnet)·빠른 실행(Haiku)으로 모델을 역할별로 라우팅해 각 모델의 강점을 살리고 호출 비용/지연을 최적화함.
  • 태그: 모델라우팅, 성능최적화, 역할분리

  • ⚖️ [판단] 도입 여부는 도메인 적합성으로 결정

  • 새 기법 도입 시 전체 도입이 아니라 '도메인 적합성'을 기준으로 판단해 맞지 않으면 부분 체리픽으로 대체하기로 결정함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·성공률 차이 관찰

  • 여러 모델 호출 통계를 통해 특정 모델(예: cliproxy/claude-sonnet-4-6)이 낮은 평균 레이턴시와 높은 성공률을 보였고, 일부 모델은 실패(0% 성공률) 사례가 있어 라우팅·대체 전략 필요성을 확인함.
  • 태그: 모델관측, 모니터링, 대체전략

  • 🔄 [개선] 복구 리포트·테스트 자동화 추가

  • recovery 리포트 자동화 스크립트 작성 및 recovery_collector 유닛/통합 테스트를 추가해 장애 대응 워크플로우의 검증과 반복 가능성을 높임.
  • 태그: 자동화, 테스트, 복구

  • 🔄 [개선] 프롬프트·응답 통계로 운영 인사이트 확보

  • 총 호출·성공률·프롬프트·응답 총량을 지속 집계해 모델 비용·효율·오류 패턴을 근거로 운영·확장 결정을 내리도록 프로세스를 개선함.
  • 태그: 관측지표, 운영개선, 데이터드리븐

  • 📚 [교훈] 문서 확인 후 정정·재의사결정 필요

  • 초기에는 gpt-5.4-mini 공개 확인 불가로 잘못 판단했으나 공식 문서 재확인 후 정정함 — 문서/공식소스 확인 루틴을 명확히 해야 함.
  • 태그: 검증절차, 사실확인, 교정

  • 📚 [교훈] 도입은 작은 단위로 검증 후 확장

  • 전체 적용 전에 소규모 체리픽·파일·후크 추가(예: scripts/session_learner.py, preemptive-compaction.sh)로 먼저 검증하고 문제가 없을 때 확장하는 방식이 안전함을 확인함.
  • 태그: 실험적도입, 점진적확장, 리스크완화

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 전체 적용 대신 적합한 부분(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 적용해 비용과 복잡도를 줄인다.
  • 태그: 도입전략, 리스크관리

  • 🔧 [해결] 모델 특성별 라우팅으로 역할 분담

  • 작업 성격에 따라 모델 라우팅을 설계(심층 판단용 Opus, 분석·디버깅용 Sonnet, 빠른 실행용 Haiku)하여 각 모델의 강점을 살리고 전체 처리 효율을 높인다.
  • 태그: 아키텍처, 모델선택

  • ⚖️ [판단] A vs B 비교는 '도메인 적합성'으로 결정

  • 새 기술이나 프레임워크를 도입할지 결정할 때는 기능성보다 해당 도구가 해결하려는 도메인과의 적합성을 우선 기준으로 삼는다(도메인 불일치면 부분 채택).
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 호출·레이턴시 통계로 병목·비용 파악

  • 모델별 호출 수와 평균 레이턴시, 성공률을 기록하면 어떤 모델이 비용·지연의 주원인인지 식별할 수 있고 라우팅·캐싱 정책을 개선하는 근거가 된다.
  • 태그: 관찰, 모니터링

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 대응

  • 기능이 늘어나거나 복잡도가 증가하면 단일 에이전트 확장 대신 역할별(analyst, report-writer, pipeline-debugger-deep 등) 에이전트를 추가해 책임을 분리하고 유지보수를 용이하게 한다.
  • 태그: 운영, 스케일링

  • 🔄 [개선] 회복·리포트 파이프라인 자동화 및 테스트 우선

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector의 유닛·통합 테스트 작성으로 복구 흐름의 신뢰성을 높이고 수작업 개입을 줄인다.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 초기 문서 확인을 늦추면 정정 비용 발생

  • Codex/gpt-5.4-mini 공개 여부를 즉시 확인하지 않아 정정 로그가 발생함 — 외부 공개정보는 조기 검증으로 불필요한 중복 조사와 정정을 줄여야 한다.
  • 태그: 절차, 정보검증

  • 📚 [교훈] 대화 응답의 범위 설정 실수는 사용자 불만으로 연결

  • Q1 사례: 관심범위를 좁혀 '에너지'만 집중한 응답이 사용자 기대(특정 종목 추천)를 놓쳤음 — 응답 전 사용자 의도(섹터 vs 종목)를 명확히 확인해야 한다.
  • 태그: UX, 커뮤니케이션

  • 💡 [발견] 전시·지정학 이벤트는 특정 섹터 동기화 신호

  • 전쟁·피격 같은 지정학적 사건은 방산·사이버보안·에너지·비료·귀금속 등 섹터별로 즉각적 수혜·충격 신호를 만들며, 이벤트→섹터맵을 빠르게 작성하면 투자 인사이트 도출에 유용하다.
  • 태그: 도메인지식, 시그널

  • 🔧 [해결] 대규모 LLM 호출 통계로 운영지표 관리

  • 총 호출수·성공률·프롬프트/응답량·에러수 같은 지표를 정기적으로 집계하면 모델 운영 상태를 추적하고 이슈(에러, 낮은 성공률)를 빠르게 발견해 대응할 수 있다.
  • 태그: 운영, 관찰

2026-03-19

  • 🔧 [해결] 문제별 에이전트 분리로 책임 범위 명확화
  • 복잡한 OMC 도입 대신 도메인에 맞는 기능만 체리픽해 모델별 에이전트를 분리(예: Opus/ Sonnet/ Haiku)하여 역할·책임을 분명히 하고 개발·운영 부담을 줄임.
  • 태그: 아키텍처, 책임분리, OMC

  • 🔧 [해결] 경보성 데이터는 전용 리포트·자동화로 수집

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 만들어 장애·복구 정보를 자동으로 수집·검증하여 수작업 의존도를 낮춤.
  • 태그: 자동화, 복구, 테스트

  • ⚖️ [판단] 전면 도입 vs 체리픽 — 도메인 적합성으로 결정

  • 새 접근(예: OMC)을 전면 도입할지 결정할 때는 팀의 도메인 적합성을 우선 판단하여, 맞지 않으면 핵심 기능만 선별 적용(체리픽)한다.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델 라우팅은 성능·역할 기준으로 구분

  • 모델별 라우팅을 '심층 판단(Opus) / 분석·디버깅(Sonnet) / 빠른 실행(Haiku)'처럼 역할·레이턴시·정확도 기준으로 분리하면 호출 효율과 성공률이 개선됨.
  • 태그: 모델, 라우팅, 성능

  • 🔄 [개선] 프롬프트·호출 통계로 모델 선택 근거 만들기

  • 호출 수, 성공률, 평균 레이턴시, 프롬프트·응답 총량 등 지표를 정기 수집해 어떤 모델을 어떤 작업에 쓰는지 근거 기반으로 조정한다.
  • 태그: 계측, 운영개선, 모델선택

  • 📚 [교훈] 외부 문서 확인은 즉시 정정·기록해야 신뢰 확보

  • 초기에는 gpt-5.4 mini 공개 불가로 기록했다가 정정한 사례처럼 공개 여부·사실관계는 확인 즉시 정정 로그를 남겨 오해를 줄여야 함.
  • 태그: 절차, 신뢰, 기록

  • 💡 [발견] 특정 섹터는 이벤트·공급 충격에 민감

  • 전쟁·피격 같은 이벤트는 방산·에너지·금·사이버보안·비료·해운 등 섹터별로 뚜렷한 가격 반응을 보이며, 공급 차질(예: Shah 가스전 피격)은 원자재·중간재(황·비료)에 즉각 전이됨.
  • 태그: 도메인지식, 금융, 인과관계

  • 🔧 [해결] 빠른 고객 응대는 섹터 맵·요약 제공으로 보완

  • 사용자 불만(예: 특정 종목 추천 누락)에 대해 전체 섹터 맵과 대표 종목·핵심 이유를 신속히 정리해 제공함으로써 불만을 해소하고 추가질문을 유도한다.
  • 태그: 고객응대, 정보구성, 금융정보

2026-03-19

  • 🔧 [해결] 큰 프레임 도입 대신 체리픽 3가지 우선 적용
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 세 가지만 선별해 먼저 구현함으로써 비용과 복잡도를 줄이고 성과를 빠르게 확보함.
  • 태그: 작업우선순위, OMC, 체리픽

  • ⚖️ [판단] 모델 기능별 라우팅은 '역할(심층 판단·분석·빠른 실행)'로 결정

  • 에이전트 확장 시 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델·에이전트 역할을 기준으로 호출 라우팅을 설계해 각 모델의 강점을 살림.
  • 태그: 모델라우팅, 설계원칙

  • 💡 [발견] 모델별 레이턴시와 호출 비중이 운영 선택에 영향

  • 클라우드/로컬 모델 통계에서 호출 수, 성공률, 평균 레이턴시가 뚜렷하게 달라 라우팅·모델 선택(예: sonnet 낮은 레이턴시로 분석 workload에 적합)에 직접적 영향을 줌.
  • 태그: LLM통계, 관측

  • 🔄 [개선] 작업 단위(유닛) 자동화→테스트 추가로 안정성 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 작성으로 수동 리포트·복구 흐름을 자동화하고 검증 단계를 워크플로우에 통합함.
  • 태그: 자동화, 테스트

  • 🔧 [해결] 도메인 불일치면 전면 도입보다 국소적 적용

  • 도메인과 맞지 않는 기술(OMC 전체)을 전면 도입하지 않고, 도메인에 맞는 핵심 기능만 골라 적용해 실패 리스크를 줄이고 성과를 내는 접근을 반복적으로 사용함.
  • 태그: 리스크관리, 적용전략

  • 📚 [교훈] 초기 응대에서 관심 분야 누락 → 사용자 신뢰 손실 가능

  • 대화에서 Vg(주식) 관련 사용자의 불만을 처음에 놓쳐 사과하고 뒤늦게 전체 맵 제공으로 만회했음. 앞으로는 사용자 발화의 섹터·관심사를 빠르게 포착해 먼저 언급해야 함.
  • 태그: 사용자응대, 교훈

  • ⚖️ [판단] 문서 기준과 로컬 확인을 교차 검증

  • gpt-5.4 mini 공개 여부 관련해 초기 로컬 확인(미확인)에서 공식 문서 재확인으로 정정한 사례처럼 외부 문서와 로컬 시스템 설정을 모두 검증해 결정을 내림.
  • 태그: 검증절차, 지식근거

  • 💡 [발견] 프롬프트 대비 응답량 불균형이 비용·효율 지표

  • 여러 세션에서 프롬프트 총량과 응답 총량 비율이 크며, 이는 프롬프트 설계(길이·구성)가 LLM 호출 비용과 처리 속도에 직접 영향을 줌을 보여줌 — 프롬프트 최적화 필요.
  • 태그: 비용최적화, 프롬프트

2026-03-19

  • 🔧 [해결] 모델별로 역할을 분리해 처리량·지연 최적화
  • 문제: 하나의 모델로 모든 작업을 처리하면 레이턴시와 전문성 충돌 발생 → 해결: 작업 성격에 따라 Opus/Sonnet/Haiku처럼 모델별 에이전트를 나누어 심층 판단·분석·빠른 실행으로 라우팅함. 결과적으로 처리 효율과 성공률 유지(예: 호출 분배로 평균 레이턴시 개선).
  • 태그: 모델라우팅, 성능, 아키텍처

  • ⚖️ [판단] 기능 전체 도입 vs 체리픽: 도메인 적합성 기준으로 선택

  • 의사결정: OMC 전체 도입은 도메인이 맞지 않으면 과도하므로, 코드 개발 전문인 경우 핵심 유망 기능 3가지만 선택(체리픽)하여 적용한다는 기준을 사용함. 즉 도메인 적합성 → 전체 도입 여부 판단.
  • 태그: 의사결정, 최소화

  • 💡 [발견] 프롬프트·응답 볼륨과 에러율은 반드시 함께 모니터링해야 함

  • 로그에서 프롬프트 총량·응답 총량·에러 수를 함께 기록하여 호출 성공률과 시스템 안정성을 확인함. 높은 호출량에서도 성공률 유지 사례(예: 총 호출 433건 성공률 99%)가 관찰됨.
  • 태그: 모니터링, 운영

  • 🔄 [개선] preemptive-compaction 훅으로 리소스·로그 사전정리 자동화

  • 기존 방식: 수동 또는 후처리로 로그·캐시 정리 → 새 방식: preemptive-compaction 스크립트/훅을 도입해 실행 전에 선제적으로 정리하여 리소스 누적 문제와 테스트 실패 가능성을 낮춤.
  • 태그: 운영자동화, 스크립팅

  • 🔧 [해결] 작업 단계를 작게 쪼개어 안정성 확보

  • 문제: 대규모 변경은 실패 리스크 큼 → 해결: 에이전트를 8→12개로 단계적 확장하고 단위 기능(analyst, report-writer, pipeline-debugger 등)으로 분리해 병렬 개발·테스트함. 이로써 실패 영향 범위 축소와 테스트 용이성 확보.
  • 태그: 워크플로우, 모듈화

  • 📚 [교훈] 초기 정보 오류는 빠르게 정정하고 기록하라

  • 사례: 08:14에 gpt-5.4 mini 공개 미확인 기록 → 08:16에 공식 문서로 정정. 교훈: 외부 공식 문서는 즉시 재확인하고 의사결정 로그에 정정 내역을 남겨 추적성을 유지해야 함.
  • 태그: 작업로그, 품질관리

  • 💡 [발견] 모델별 레이턴시 차이가 의사결정에 영향

  • 로그에서 모델별 평균 레이턴시(예: 14s vs 4s)가 크게 차이나므로, 응답 시간 요구에 따라 모델 할당(빠른 실행엔 낮은 레이턴시 모델)을 설계해야 함.
  • 태그: 성능, 모델선택

  • 🔄 [개선] 자동 리포트·테스트 파이프라인 병행 도입

  • 시퀀스: recovery 리포트 자동화 스크립트 작성 → recovery_collector 유닛/통합 테스트 추가. 개선점: 리포트 자동화와 함께 유닛/통합 테스트를 병행해 회복 기능의 신뢰도를 높임.
  • 태그: 테스트, 자동화

2026-03-19

  • 🔧 [해결] 체리픽으로 필요 기능만 도입
  • 전체 OMC 도입 대신 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현해 비용과 복잡도를 줄임.
  • 태그: 체리픽, 단계적도입, 비용절감

  • 🔄 [개선] 모델별 역할 기반 라우팅

  • 에이전트 역할을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 나눠 요청 유형에 맞게 라우팅해 처리 효율과 응답 속도 개선.
  • 태그: 라우팅, 역할분담, 성능

  • ⚖️ [판단] 전체 도입 vs 부분 체리픽 — 도메인 적합성 기준

  • 새 프레임워크 전체 도입 대신 내부 도메인 적합성(코드 개발 전문성 여부)을 기준으로 필요한 부분만 선택함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시 차이 활용 가능

  • 서로 다른 모델들이 평균 응답시간 차이를 보였음(예: gpt-5-mini 느림, sonnet 빠름) — 작업 특성에 따라 모델 선택해 레이턴시 최적화 가능.
  • 태그: 모델성능, 레이턴시

  • 📚 [교훈] 공식 문서 확인의 반복 필요성

  • 초기에는 gpt-5.4 mini 공개 여부에 관해 불확실함 → 정정 과정을 거쳐 공식 문서로 확인함. 외부 사실은 바로 문서 확인 절차를 권장.
  • 태그: 검증절차, 문서확인

  • 🔧 [해결] preemptive-compaction으로 자원관리

  • preemptive-compaction 훅을 추가해 세션/에이전트의 자원 사용을 사전에 압축·정리해 장기 실행 안정성 확보.
  • 태그: 자원관리, 자동정리

  • 🔄 [개선] 에이전트 확장으로 책임 분리

  • 기능별 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등으로 역할을 세분화해 병렬 처리와 유지보수성 향상.
  • 태그: 스케일링, 책임분리

  • 💡 [발견] LLM 호출 통계로 안정성 판단

  • 호출 총량·성공률·에러 수·프롬프트/응답량을 주기적으로 수집해 모델 안정성 및 비용-효율을 평가함.
  • 태그: 모니터링, 지표

  • 📚 [교훈] 로컬 도구의 모델 오버라이드 유용성

  • Codex CLI가 -m/--model과 config.toml을 통해 모델 오버라이드를 지원함을 확인 — 실험·전환 시 로컬 설정으로 빠른 검증 가능.
  • 태그: 운영팁, 구성관리

  • 🔧 [해결] 전략적 섹터 요약으로 사용자 불만 해소

  • 사용자 불만(특정 종목 미추천)에 대해 섹터별 수혜주 맵(방산·에너지·금·사이버보안·해운·비료 등)과 핵심 근거를 정리해 응답으로 제공함.
  • 태그: 사용자응대, 콘텐츠정리

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심만 도입
  • OMC 전체 도입은 도메인 부적합할 때 전체 적용을 피하고, 관련성이 높은 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현한다.
  • 태그: 선택적도입, 최소적용, 체리픽

  • 🔧 [해결] 모델 역할별 라우팅으로 부하·목적 분리

  • 작업 종류에 따라 모델 그룹을 나누어 라우팅(심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku)하면 각 모델의 강점을 살려 효율과 응답 품질을 개선할 수 있다.
  • 태그: 모델라우팅, 역할분리, 효율화

  • ⚖️ [판단] 전체 도입 vs 부분 체리픽 판단 기준: 도메인 적합성

  • 새 방식(예: OMC)을 도입할 때 '우리 도메인과의 적합성'을 우선 판단 기준으로 삼아, 적합하지 않으면 전체 도입 대신 체리픽으로 핵심만 골라 적용한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델 변경을 지원한다는 사실을 확인했다(문서 검증 후 정정 포함).
  • 태그: 도구능력, 모델설정

  • 🔄 [개선] 프롬프트·호출 통계로 안정성 모니터링

  • 세션별 LLM 호출 수·성공률·프롬프트/응답량·에러 수를 주기적으로 기록해 모델별 성능과 안정성(예: 성공률 98% vs 100%, 에러 6건)을 감시하고 대응한다.
  • 태그: 모니터링, 운영지표, 지표기반개선

  • 🔧 [해결] 작업 확장 시 역할 전용 에이전트 추가

  • 에이전트 수 확장 필요시(8→12) 도메인별·기능별 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)를 추가해 책임과 기능을 분리한다.
  • 태그: 확장전략, 에이전트아키텍처

  • 📚 [교훈] 초기 정보에 의존한 결론은 정정 가능성 있음

  • gpt-5.4 mini 공개 여부 관련해 초기엔 문서에서 확인 불가라 했으나 곧 정정되어 공개 표기가 확인됨 — 문서 기반 판단은 재검증 루틴을 둬야 한다.
  • 태그: 검증절차, 교차확인

  • 💡 [발견] 전쟁 관련 섹터별 수혜·리스크 연결

  • 대화에서 방산·에너지·금·사이버보안·해운·비료 등이 전쟁으로 수혜를 받는다는 맵을 정리해, 이벤트(예: 무기 증산, 가스전 피격)가 특정 섹터·종목에 즉각적 영향으로 연결됨을 확인했다.
  • 태그: 도메인인사이트, 이벤트영향

  • 🔄 [개선] 자동화 스크립트→유닛/통합 테스트 흐름

  • recovery 리포트 자동화 스크립트 작성 후 바로 recovery_collector 유닛·통합 테스트를 작성하는 순서로, 자동화 코드 출시 전 테스트를 병행해 안정성을 높임.
  • 태그: 테스트우선, CI습관, 자동화

  • 📚 [교훈] 모델별 평균 레이턴시와 호출 균형 고려 필요

  • 세션 통계에서 특정 모델(github-copilot/gpt-5-mini)의 레이턴시가 높게 나타나는 경우가 있어, 작업 라우팅 시 응답속도·비용·품질을 함께 고려해야 한다.
  • 태그: 성능교훈, 라우팅정책

2026-03-19

  • 🔧 [해결] 복잡한 모델 기능은 체리픽으로 축소 적용
  • 전체 OMC 도입이 도메인에 맞지 않을 때는 핵심 유용 기능 3가지만 골라(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 구현하여 효율성과 리스크를 줄였다.
  • 태그: 모듈화, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리

  • 에이전트 확장 시 속도·분석·심층판단 요구를 고려해 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 모델 라우팅을 채택했다. 성능·책임 분리 기준으로 판단했다.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 프롬프트·응답 볼륨과 호출 성공률은 별개일 수 있음

  • 세션별로 프롬프트 총량·응답 총량이 크게 늘어도 성공률이 높게 유지되었다(예: 호출 수 증가에도 성공률 98~100%). 대량 호출은 안정성 저하를 반드시 의미하지 않음.
  • 태그: 운영지표, 관찰

  • 🔄 [개선] 작업 단위는 에이전트로 분해하여 확장

  • 기능 추가(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)로 역할을 세분화해 동시에 여러 작업을 병렬 처리하고 책임 경계를 명확히 했다.
  • 태그: 워크플로우, 병렬처리

  • 📚 [교훈] 문서화·정정 로그를 즉시 남겨 혼선을 줄여야 한다

  • 08:15와 08:16에 모델 공개 여부 관련 정정이 발생했다. 실시간 정정과 출처 표시는 의사결정 혼란을 줄이는 데 중요함.
  • 태그: 문서화, 신뢰성

  • 🔧 [해결] 빠른 출시 검증은 로컬 도구 오버라이드로 대응

  • 공식 문서 불확실 시 Codex CLI의 -m/--model이나 config.toml을 이용해 로컬에서 모델 오버라이드를 검증하여 출시 가능성·호환성을 확인했다.
  • 태그: 검증, 도구활용

  • 💡 [발견] 모델별 레이턴시 편차가 운영설계에 영향 준다

  • 같은 작업군에서 모델별 평균 레이턴시가 크게 달라(예: gpt-5-mini 수 ms vs copilot 수 만 ms) 라우팅·타임아웃 정책·비용 설계에 반영해야 한다.
  • 태그: 관찰, 성능

  • 🔄 [개선] 자동화 파이프라인에 테스트·리포트 단계 추가

  • recovery 관련 자동화 스크립트 작성과 recovery_collector의 유닛/통합 테스트를 병행해 운영 중 재현·복구 검증을 강화했다.
  • 태그: 테스트, 자동화

  • 📚 [교훈] 대화 응답 범위가 편향될 수 있으니 넓은 관점을 보완하라

  • 초기 Q&A에서 '에너지'만 다루다 사용자 지적 후 전쟁 수혜주 전체 맵으로 범위를 확장했다. 사용자 피드백으로 편향 보완이 필요함.
  • 태그: 사용자피드백, 품질

  • ⚖️ [판단] 체리픽은 도메인 전문성과 자원 대비 가치 기준으로 결정

  • OMC 전체 도입 대신 코드 개발과 맞지 않는 부분은 배제하고, 도메인·자원 대비 가치가 높은 기능만 선별 적용하기로 판단했다.
  • 태그: 우선순위, 비용편익

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽 방식으로 기능만 도입
  • 전체 OMC 도입은 도메인 불일치로 비효율적이라 판단하고, 도메인에 맞는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 적용함으로써 비용·복잡도 절감과 빠른 가치 실현을 도모함.
  • 태그: 도메인적합성, 체리픽, 비용절감

  • ⚖️ [판단] 모델 라우팅은 작업 성격별 계층화로 결정

  • 심층 판단·분석·빠른 실행 등 작업 성격을 기준으로 Opus/Sonnet/Haiku처럼 모델 라우팅을 3단계로 나눠 각 모델에 역할을 배정해 처리 효율과 응답품질을 최적화함.
  • 태그: 모델선택, 라우팅, 역할분담

  • 💡 [발견] 모델별 레이턴시·성공률 차이는 작업 할당에 영향

  • 로그에서 cliproxy/claude-sonnet-4-6은 낮은 레이턴시로 다수 호출을 처리했고 github-copilot은 레이턴시가 높았음 → 응답시간 민감한 작업은 Sonnet 계열로, 복잡한 추론은 Copilot 계열로 배치하는 게 효율적임.
  • 태그: 성능관찰, 스케줄링

  • 🔧 [해결] 모델 오버라이드와 로컬 설정으로 최신성 불확실성 대응

  • 공식 문서의 공개 시점이 불확실할 때 Codex CLI의 -m/--model 및 config.toml을 이용해 로컬에서 모델 오버라이드가 가능함을 확인하고 이를 통해 실험·대응을 가능하게 함.
  • 태그: 운영유연성, 설정관리

  • 🔄 [개선] 에이전트 확장으로 역할 책임 분리

  • 에이전트를 8개에서 12개로 확대해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 각 책임을 세분화하고 전문화된 처리 파이프라인을 구현함.
  • 태그: 조직화, 전문화, 확장성

  • 📚 [교훈] 빠른 결론 대신 근거 정정·기록을 남겨 혼선 방지

  • 08:15에 gpt-5.4-mini 공개 불가로 기록했다가 08:16에 공식 문서에서 공개 표기를 확인해 정정함 → 빠른 단정은 오류를 낳으므로 변경사항과 근거(문서 링크/스냅샷)를 바로 기록하고 정정 로그를 남겨야 함.
  • 태그: 기록습관, 정정절차, 투명성

  • 💡 [발견] 대화형 응답은 섹터별 요약+핵심 종목 제시가 효과적

  • 사용자 불만(특정 종목 부재)에 대해 섹터별 성과 요약과 대표 종목 표를 제공하자 불만 해소와 정보 전달이 동시에 이루어짐 → 복합 정보 요청엔 요약표+핵심 포인트가 유용함.
  • 태그: UX, 정보설계

  • 🔧 [해결] 자동화 스크립트·테스트 우선 병행 개발

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화 기능의 신뢰도를 빠르게 확보함 → 자동화 기능은 곧바로 테스트를 붙여 회귀 위험을 줄임.
  • 태그: 자동화, 테스트, 신뢰성

2026-03-19

  • 🔧 [해결] 체리픽으로 도메인 불일치 문제 해결
  • 전체 OMC 도입은 도메인 미일치로 비효율적이라 판단하고, 관련 기능 중 코드 개발에 맞는 3가지만 선별(cherry-pick)해 구현으로 효율을 높임.
  • 태그: 의사결정, 효율화, 도메인적합성

  • 🔧 [해결] 모델 역할 분리로 작업 병렬화

  • 에이전트 수를 늘리고 역할(심층 판단/분석·디버그/빠른 실행)로 모델 라우팅해 각 작업에 적합한 모델·에이전트를 배치하여 처리량과 성공률을 유지함.
  • 태그: 아키텍처, 모델라우팅, 스케일링

  • ⚖️ [판단] 기술 도입 여부는 도메인 적합성으로 판단

  • 새 방식(OMC 전체) vs 선택적 적용(체리픽) 비교 시 '도메인 적합성'을 우선 기준으로 삼아 불필요한 전체 도입을 배제함.
  • 태그: 판단기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·역할 차이 발견

  • 같은 호출 환경에서도 모델마다 평균 레이턴시와 적합한 역할이 다름(gpt-5-mini는 느림·고비용, sonnet은 빠른 응답 등), 이를 기반으로 라우팅 설계함.
  • 태그: 성능관찰, 모델특성

  • 🔄 [개선] preemptive-compaction 훅으로 프롬프트 관리를 개선

  • 프롬프트 총량과 응답량이 큰 상황에서 preemptive-compaction 훅을 추가해 프롬프트 크기·비용을 사전 압축하여 호출 안정성과 비용 효율을 개선함.
  • 태그: 프롬프트관리, 비용절감, 훅

  • 🔄 [개선] recovery 리포트 자동화 및 테스트 통합

  • recovery 리포트 자동화 스크립트를 작성하고 유닛/통합 테스트를 추가해 복구 절차의 재현성과 신뢰도를 높임.
  • 태그: 자동화, 테스트, 운영신뢰성

  • 📚 [교훈] 공식 문서 확인의 타이밍 문제

  • 초기에는 공개 여부를 불명확하게 보고했다가 문서 확인 후 정정함 — 외부 문서(공식 모델 공개 등)는 빠르게 재확인하고 변경사항을 로그에 남겨야 혼선 감소.
  • 태그: 절차, 문서확인, 커뮤니케이션

  • 📚 [교훈] 모델 실패 케이스 모니터링 필요

  • 여러 모델 호출 중 일부 모델(gpt-5-mini, qwen2.5 등)에서 0% 성공률 관측 → 실패 원인(인증·버전·호환성)을 모니터링·분리해 테스트 환경에서 격리할 필요가 있음.
  • 태그: 운영모니터링, 장애대응, 분리테스트

  • 💡 [발견] 작업별 에이전트 세분화가 생산성 향상

  • analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 특정 목적의 에이전트를 추가하자 각 작업의 완료 속도와 품질이 개선됨.
  • 태그: 팀구성, 에이전트분화, 생산성

2026-03-19

  • 🔧 [해결] 대규모 프레임워크 대신 핵심만 체리픽해서 적용
  • OMC 전체 도입은 도메인·비용 측면에서 부적합하다고 판단하고, 필요한 기능 3가지만 선별해(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 부분 적용함으로써 빠른 가치 실현과 개발 비용 절감 달성.
  • 태그: 체리픽, 비용절감, 단계적도입

  • ⚖️ [판단] 모델 라우팅 기준은 역할(심층판단/분석/빠른실행)로 결정

  • 에이전트 분류(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)로 모델 라우팅을 설계해 각 모델의 강점(정밀도 vs 속도)을 업무 역할에 맞춰 배치함.
  • 태그: 모델선택, 역할기반, 성능-용도매칭

  • 💡 [발견] 로컬 Codex는 CLI로 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 로컬에서 모델을 변경할 수 있음이 확인되어 배포·테스트 유연성이 높아짐.
  • 태그: 툴확인, 운영유연성

  • 📚 [교훈] 정보 확인 후 정정 로그를 남겨 혼란 최소화

  • 초기에 gpt-5.4-mini 공개 여부를 확인불가로 기록했다가 문서에서 공개 표기를 확인하고 정정함. 실시간 사실 확인 후 즉시 정정 기록을 남겨 의사결정 연속성 보장해야 함.
  • 태그: 검증, 투명성, 정정로그

  • 🔧 [해결] preemptive-compaction으로 리소스·성능 관리

  • preemptive-compaction 훅을 도입해 런타임 리소스(프롬프트/컨텍스트 등)를 사전 정리하여 호출 성공률과 레이턴시 안정화를 도모함.
  • 태그: 성능최적화, 리소스관리

  • 🔄 [개선] 에이전트 수평 확장 후 역할 세분화

  • 기존 8개에서 12개로 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 역할을 추가해 책임 경계와 전문성을 높임 → 디버깅·리포트·크론 진단이 독립화되어 병렬 처리 효율 향상.
  • 태그: 조직설계, 확장성, 역할분리

  • 🔧 [해결] 자동화 스크립트+유닛테스트로 리커버리 파이프라인 강화

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛·통합 테스트를 병행해 재현·검증 가능성이 있는 리커버리 절차를 코드로 정리함으로써 운영 중 장애 복구 신뢰도를 높임.
  • 태그: 자동화, 테스트, 운영신뢰성

  • 📚 [교훈] 도메인 편향으로 정보 누락 발생 → 사용자 피드백으로 보완

  • 대화에서 Vg(에너지 등)를 놓친 이유가 '에너지보다 다른 분야 집중' 때문이라 응답 누락이 발생함. 사용자 불만을 접수하면 빠르게 범위 보완(전쟁 수혜주 전체 맵 제공)으로 신뢰 회복 필요.
  • 태그: 사용자피드백, 범위검사, 편향보정

2026-03-19

  • 🔧 [해결] 특정 기능 전체 도입 대신 핵심만 체리픽
  • OMC처럼 큰 프레임워크를 전면 도입하기보다 도메인 적합성을 검토해 필요한 구성 3가지만 골라 부분 적용(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 불필요한 범위 확장 방지로 개발 비용과 복잡도 절감.
  • 태그: 범위관리, 효율화, 설계

  • ⚖️ [판단] 모델 라우팅은 역할별로 단계화

  • 응답 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델·에이전트를 역할과 레이턴시에 맞게 3단계로 라우팅하면 작업 분배와 성능 균형을 맞출 수 있다.
  • 태그: 모델선택, 아키텍처, 성능

  • 💡 [발견] LLM 호출 통계로 신뢰·성능 편차 파악

  • 세션별 호출 수, 성공률, 평균 레이턴시를 수집하면 어떤 모델이 비용/성능·신뢰 관점에서 효율적인지 보이며, 고레이턴시 모델을 심층 판단용으로 고정할 근거가 된다.
  • 태그: 관찰, 모니터링, 성능분석

  • 🔄 [개선] 에이전트 확장은 역할 분화로 진행

  • 단순히 수를 늘리기보다 기능별 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)를 추가해 책임을 분리하면 확장 후 유지보수와 전문화가 쉬워진다.
  • 태그: 운영, 조직화, 확장성

  • 🔧 [해결] 로컬 툴의 모델 오버라이드 활용으로 유연성 확보

  • 공식 문서의 공개 여부가 불확실할 때 Codex CLI의 -m/--model 또는 config.toml model 키로 로컬에서 모델 오버라이드를 사용해 신속하게 테스트·전환할 수 있다.
  • 태그: 도구활용, 유연성, 테스트

  • 📚 [교훈] 초기 판단 정정은 로그로 남겨 추적성 확보

  • 08:15에 비공개로 판단했다가 08:16에 정정해 공개 표기를 확인한 사례처럼, 변경된 의사결정은 즉시 기록해 왜 정정했는지 근거(문서·시간)를 남기면 후속 혼선 감소.
  • 태그: 기록, 투명성, 운영절차

  • 💡 [발견] 도메인 뉴스(예: 전쟁·피격)와 섹터 영향 연결

  • 대화에서 전쟁·가스전 피격 같은 사건이 방산·에너지·비료·금 등 특정 섹터 가격·수요에 직접적 영향(수혜주 식별)을 준다는 점을 확인, 이벤트→섹터 매핑을 자동화하면 투자 추천 정확도 향상.
  • 태그: 도메인지식, 인과관계, 자동화

2026-03-19

  • 🔧 [해결] 문제 특화는 전체 도입보다 체리픽으로 대응
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 코드 개발에 맞는 핵심 3가지를 선별(cherry-pick)해 구현함 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction.
  • 태그: 전략적선택, 범위제한

  • ⚖️ [판단] 모델 라우팅은 역할·지연·정확도로 분리

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 라우팅을 적용해 성능·레이턴시·역할을 균형있게 맞춤.
  • 태그: 모델선택, 성능고려

  • 💡 [발견] 특정 모델의 평균 레이턴시·성공률 차이 관찰

  • github-copilot/gpt-5-mini는 호출당 레이턴시가 높지만 성공률 100%로 안정적이고, cliproxy/claude-sonnet-4-6는 낮은 레이턴시로 다수 호출에 적합함 — 라우팅 근거로 사용 가능.
  • 태그: 계측, 모델모니터링

  • 🔄 [개선] 에이전트 확장으로 역할 분화 및 전문화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 역할을 추가함으로써 책임 경계와 기능 집중을 개선.
  • 태그: 아키텍처개선, 역할분리

  • 🔧 [해결] 정확성 불확실시 로컬/공식 문서로 재검증

  • gpt-5.4 mini 공개 여부에 대해 초기 확인 불가→로컬 Codex 설정 확인→정정하여 공식 Models 문서에서 공개 표기 확인함으로써 정보 오류를 바로잡음.
  • 태그: 검증절차, 문서확인

  • 📚 [교훈] 빠른 추정은 검증 절차를 반드시 거쳐야 함

  • 초기 '공개 확인 불가' 판단 후 곧 정정 발생 — 외부 문서/로컬 설정 둘 다 확인하는 루틴을 표준화해야 함.
  • 태그: 검증습관, 의사결정교훈

  • 💡 [발견] 프롬프트·응답량과 호출수의 불균형 가능성

  • 세션별 프롬프트 총량과 응답 총량, 호출 수 변화(예: 하루중 누적 증가)를 통해 작업 유형(긴 프롬프트 vs 짧은 호출)과 비용/지연 패턴을 유추할 수 있음.
  • 태그: 계량분석, 비용최적화

  • 🔄 [개선] 자동화 스크립트+테스트 병행으로 안정성 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 함께 진행해 자동화된 리포트의 신뢰도를 확보하려는 워크플로우 개선.
  • 태그: 테스트주도, 자동화

  • ⚖️ [판단] 성공률·에러수는 라우팅·재시도 정책 결정의 핵심

  • 모델별 성공률과 에러 수(예: 일부 모델 호출 실패)를 기준으로 재시도/폴백/비활성화 정책을 설계해 시스템 안정성을 높임.
  • 태그: 운영정책, 에러대응

2026-03-19

  • 🔧 [해결] 대규모 기능은 체리픽해 핵심만 먼저 도입
  • OMC 전체 도입은 도메인 불일치로 불필요하다고 판단하고, 개발에 맞는 3가지(에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 구현함으로써 비용과 위험을 줄였다.
  • 태그: 범위축소, 리스크관리, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할별로 단계화

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku로 3단계 모델 라우팅을 적용해 각 모델의 강점에 맞게 작업을 분배했다.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 허용한다는 점을 확인해 로컬 환경에서 모델 전환이 가능함을 발견했다.
  • 태그: 도구제약, 운영성

  • 💡 [발견] 공식 문서와 초기 관찰 간 시간차로 정정 발생

  • 08:15에 gpt-5.4-mini 공개 불가로 기록했으나 08:16에 공식 문서에서 공개 표기가 확인되어 기록을 정정한 사례로, 문서 확인 시 재검증 필요성을 확인.
  • 태그: 정보검증, 문서신뢰성

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트에서 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등 4개를 추가해 총 12개로 확장, 작업 책임과 전문성을 분리해 병렬 처리와 유지보수성을 높였다.
  • 태그: 조직구조, 병렬처리

  • 🔧 [해결] 재난·복구 리포트 자동화와 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector의 유닛·통합 테스트를 동시에 만들어 자동화 도입 후 검증을 확보했다.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 초기 결론은 빠르게 정정할 준비를 둬야 한다

  • 문서 기반 사실관계가 바뀌거나 추가로 확인되면 즉시 의사결정 로그를 정정해야 하며, 정정 프로세스를 표준화하면 혼선과 반복작업을 줄일 수 있다.
  • 태그: 절차, 투명성

  • 🔧 [해결] 문제별로 적합한 모델·도구를 매핑해 호출 비용 최적화

  • 성능·레이턴시 통계를 확인해 레이턴시가 긴 모델은 심층 판단에, 짧은 모델은 빈번한 분석에 배정하여 총 호출 성공률과 응답시간 균형을 맞춤.
  • 태그: 성능최적화, 자원할당

2026-03-19

  • 🔧 [해결] 특정 기능 전체 도입 대신 체리픽으로 핵심만 적용
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지를 선별 적용해 비용과 복잡도를 줄임.
  • 태그: 적용범위, 비용절감, 우선순위

  • 🔧 [해결] 모델별 역할 분리로 라우팅 최적화

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 모델 특성에 따라 에이전트를 분리하고 3단계 라우팅을 적용하여 작업별 레이턴시·정확도 균형을 맞춤.
  • 태그: 아키텍처, 모델라우팅, 성능

  • ⚖️ [판단] 전체 적용 vs 체리픽 판단 기준: 도메인 적합성

  • 새 방법을 전체 도입할지 여부는 '팀/코드의 도메인 적합성'을 우선 기준으로 삼아, 적합하지 않으면 핵심 기능만 체리픽하도록 결정함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 로컬 환경에서 -m/--model로 모델을 변경할 수 있어, 공식 공개 여부와 무관하게 로컬 테스트·전환이 가능함이 확인됨.
  • 태그: 툴링, 운영유연성

  • 🔄 [개선] 대규모 LLM 호출 통계로 모델 선택 근거화

  • 모델별 호출수·성공률·레이턴시 통계를 수집해 평균 레이턴시와 성공률을 비교하고, 실제 작업에 적합한 모델을 선택하도록 워크플로우에 통계 기반 의사결정 추가.
  • 태그: 관측기반, 모델선택, 운영

  • 📚 [교훈] 공식 문서 확인의 재검토 필요성

  • 08:15에 공개 불가로 기록했다가 08:16 정정이 발생—중요 변경 사항(모델 공개 등)은 단번에 확정하기 전 소스 재확인 루틴을 넣어 오보·수정 비용을 줄여야 함.
  • 태그: 검증절차, 실수복구

  • 📚 [교훈] 체계적 자동화와 테스트 동시 적용의 가치

  • recovery 리포트 자동화·recovery_collector 테스트 진행에서 알 수 있듯 자동화 도입 시 유닛/통합 테스트를 병행해야 신뢰도를 확보할 수 있음—자동화 먼저 후검증 패턴을 고정화할 것.
  • 태그: 테스트, 자동화, 신뢰성

2026-03-19

  • 🔧 [해결] 체리픽으로 불필요한 전체 도입 회피
  • OMC 전체 도입이 도메인과 맞지 않을 때 모든 기능을 도입하지 않고, 핵심 가치가 있는 세 가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 복잡도를 줄임.
  • 태그: 선택적도입, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 모델 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할·처리 성격에 따라 나눠 트래픽과 책임을 명확히 함.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] Codex CLI는 모델 오버라이드 지원

  • 로컬 Codex가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인해 배포·테스트 유연성이 있음을 발견.
  • 태그: 도구기능, 운영

  • 🔄 [개선] recovery 리포트 자동화 → 테스트 포함 개발 순서

  • 먼저 자동화 스크립트를 만들고(recovery 리포트 자동화), 이어서 유닛/통합 테스트(recovery_collector 테스트)를 작성해 신뢰성을 확보하는 워크플로우로 전환.
  • 태그: 테스트우선, 자동화

  • 📚 [교훈] 통계·로그로 모델 성능 편향 감지

  • 세션별 호출 통계(호출수·성공률·레이턴시)를 지속적으로 비교해 특정 모델의 실패/랜덤성(gpt-5-mini,qwen2.5 등 0% 성공률 항목)을 빠르게 찾아 대체하거나 재설정해야 함.
  • 태그: 모니터링, 운영교훈

  • 💡 [발견] 전쟁 리스크는 특정 섹터에 집중된 수혜로 연결

  • 대화 분석에서 전쟁·지정학적 이벤트는 방산·에너지·금·사이버보안·해운·비료 등 특정 섹터의 가격 상승으로 직결된다는 패턴을 확인함(섹터별 대표 종목과 수익률 표기).
  • 태그: 도메인인사이트, 금융

  • 🔧 [해결] 도메인 문의에 섹터별 맵 제공으로 신뢰 회복

  • 사용자의 불만(특정 종목 미소개)에 대해 섹터별 지도와 대표 종목·핵심 포인트를 정리해 응답함으로써 누락에 대한 신뢰를 회복하고 추가 논의를 유도.
  • 태그: 고객응대, 정보제공

2026-03-19

  • 🔧 [해결] 도메인 전체 도입 대신 체리픽 3가지만 적용
  • OMC 전체를 한 번에 도입하지 않고, 도메인 부적합성을 이유로 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 세 가지만 선택적으로 적용하여 리스크와 작업량을 줄임
  • 태그: 단계적도입, 리스크관리, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할별로 구분한다

  • 심층 판단에는 Opus, 분석·디버깅에는 Sonnet, 빠른 실행엔 Haiku처럼 모델을 역할(심층/분석/실행) 기준으로 라우팅하면 효율과 응답 품질을 높일 수 있음
  • 태그: 모델선택, 역할기반라우팅

  • 💡 [발견] 로컬 Codex는 모델 오버라이드가 가능하다

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 모델 변경을 지원하므로 로컬 환경에서 모델 실험이나 전환이 가능함
  • 태그: 도구제약, 운영유연성

  • 💡 [발견] 공식 문서와 로컬 확인 결과가 시간차로 바뀔 수 있다

  • 08:15에 gpt-5.4-mini 공개 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기가 확인되는 등 외부 문서 기준은 시점에 따라 바뀌므로 의사결정 시 재검증 필요
  • 태그: 문서신뢰도, 타임스탬프검증

  • 🔄 [개선] 에이전트 확대는 기능별 세분화로

  • 기존 에이전트 수를 8개에서 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 전문 역할을 추가함으로써 책임 분리와 전문성 향상 도모
  • 태그: 조직구조, 책임분리, 스케일업

  • 🔧 [해결] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 만들고 recovery_collector에 유닛 및 통합 테스트를 작성하여 자동화된 리포트의 신뢰성을 검증하는 워크플로우로 문제 발생 시 대응 속도와 정확도를 높임
  • 태그: 자동화, 테스트, 신뢰성

  • 📚 [교훈] 대응 전 범위 도입은 비효율—작은 범위로 검증하고 확장하라

  • 처음에 OMC 전체 도입을 피하고 작은 체리픽부터 적용한 결정에서, 대규모 도입 전 검증과 단계적 확장의 중요성을 확인함. 앞으로도 새로운 체계는 핵심 요소부터 시범 도입 후 확장해야 함
  • 태그: 검증, 점진적도입, 운영교훈

2026-03-19

  • 🔧 [해결] 도메인 부적합 시 체리픽(선택적 도입)
  • 전체 OMC 도입이 불필요하다고 판단될 때, 전면 적용 대신 도메인에 맞는 핵심 기능 3가지만 선별해 적용(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 리스크와 작업량을 줄이며 효과는 유지함.
  • 태그: 모델운영, 범위결정, 리스크관리

  • 🔧 [해결] 모델 역할별 라우팅으로 작업 분할

  • 작업 성격에 따라 모델을 역할화(심층 판단: Opus, 분석·디버깅: Sonnet, 빠른 실행: Haiku)하여 호출 비용·레이턴시·정확도 요구를 맞춤으로써 전체 파이프라인 효율과 응답 품질을 개선함.
  • 태그: 아키텍처, 모델라우팅, 성능최적화

  • ⚖️ [판단] 공식 문서 우선 검증 vs 로컬 확인

  • 외부 모델 공개 여부는 공식 문서에서 먼저 확인하고(우선권), 로컬 툴(예: Codex CLI)의 기능 지원 여부는 병행 확인하여 실제 변경 가능성을 판단함.
  • 태그: 검증절차, 정보출처

  • 💡 [발견] 모델별 레이턴시와 호출분포의 상관

  • 같은 작업군에서도 모델별 평균 레이턴시가 크게 다름(예: cliproxy/claude-sonnet-4-6이 상대적으로 짧음). 대량 호출 환경에서는 레이턴시가 비용·사용성 결정 요인이 됨.
  • 태그: 관찰, 성능지표

  • 🔄 [개선] 에이전트 확장으로 역할 특화

  • 단순 확장(개수 증가)을 넘어서 역할별 전담 에이전트를 추가(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)하여 책임 분리와 병렬 처리 능력을 높임.
  • 태그: 워크플로우, 조직화, 병렬처리

  • 📚 [교훈] 초기 과도적 도입은 유지비용 증가

  • 전체 프레임워크를 통째로 도입하려다 도메인 불일치로 비효율이 발생함 → 앞으로는 전체 수용 대신 도메인 적합성 기반으로 핵심만 선택(체리픽)해야 함.
  • 태그: 교훈, 프로젝트관리

  • 🔧 [해결] 복구 리포트 자동화로 검증 반복 비용 절감

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성하여 수동 리포트·검증 반복을 자동화, 테스트 커버리지로 신뢰성 확보.
  • 태그: 자동화, 테스트

2026-03-19

  • 🔧 [해결] 문제별 모델 체리픽으로 관리
  • OMC 전체 도입 대신 도메인 적합한 핵심 기능 3가지만 체리픽(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 복잡도와 비용을 줄이고 효과만 확보한다.
  • 태그: 모델운영, 비용절감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단·분석·빠른 실행 같은 역할을 기준으로 Opus/Sonnet/Haiku로 3단계 라우팅을 적용해 각 모델에 적합한 작업을 배정한다.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 모델별 레이턴시·호출 패턴 차이

  • 같은 작업군에서 cliproxy/claude-sonnet 계열의 평균 레이턴시가 낮고 호출 수가 많아 초단위 응답·대량 호출에 적합함을 관찰함.
  • 태그: 성능관찰, 모델비교

  • 🔄 [개선] 에이전트 확장으로 전문화

  • 일반 에이전트에서 analyst/report-writer/pipeline-debugger-deep/cron-doctor-deep 등으로 에이전트를 늘려 책임을 분리하고 작업 병렬성·전문화 향상.
  • 태그: 아키텍처, 전문화, 스케일업

  • 📚 [교훈] 전체 도입보다 부분 적용 우선

  • 새 프레임워크(OMC)를 전면 도입하려다 도메인 불일치로 비효율을 경험할 뻔함 → 핵심 기능만 선별 적용하는 것이 안전하고 효과적이다.
  • 태그: 프로젝트관리, 리스크관리

  • 🔧 [해결] 로컬 CLI로 모델 오버라이드 사용

  • 공식 문서 업데이트가 불확실할 때 로컬 Codex의 -m/--model 또는 config.toml을 이용해 즉시 모델 변경을 적용하여 개발 흐름을 유지함.
  • 태그: 도구사용, 유연성, 개발워크플로우

  • 💡 [발견] 공식 문서와 현장 확인의 시간차

  • 08:15에 공개 확인 불가로 기록했다가 08:16에 문서상 공개 표기 확인 → 공식 문서와 로컬 확인 사이에 짧은 정정이 발생함을 발견.
  • 태그: 운영절차, 정보동기화

  • 🔄 [개선] 리포트·테스트 자동화 작업 선행

  • recovery 리포트 자동화와 recovery_collector 유닛/통합 테스트를 작성하여 수동 리포트와 수작업 검증을 줄이고 검증 속도를 높임.
  • 태그: 테스트자동화, 신뢰성

  • 📚 [교훈] LLM 호출 통계로 품질 모니터링

  • 총 호출·성공률·프롬프트·응답량·에러 수 같은 지표를 주기적으로 기록하면 모델 성능·비용·오류 패턴을 파악해 운영 결정을 내리기 쉽다.
  • 태그: 모니터링, 운영지표

2026-03-19

  • 🔧 [해결] 체리픽으로 범위 제한하기
  • 전체 OMC 도입이 불필요할 때, 도메인 적합한 핵심 기능 3가지를 선별해(cherry-pick) 우선 구현함으로써 비용과 복잡도를 줄이고 효과를 검증한다.
  • 태그: 범위관리, 우선순위, 효율

  • 🔧 [해결] 모델별 에이전트 분리로 역할 분담

  • 작업 특성에 따라 에이전트를 모델(예: Opus/Sonnet/Haiku)별로 라우팅해 심층 판단·분석·빠른 실행을 각각 처리하게 함으로써 응답 품질과 처리 속도를 최적화한다.
  • 태그: 아키텍처, 모델라우팅, 성능

  • ⚖️ [판단] 도메인 적합성 우선 판단 기준

  • 새 기술이나 프레임워크 도입 시 '우리 도메인(전문성)과 맞는가'를 1차 기준으로 삼아 불일치하면 부분 적용(체리픽)으로 선회한다.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·성공률 편차 관찰

  • 동일 작업에서 모델별 호출 수·평균 레이턴시·성공률이 크게 다르므로 성능지표를 기준으로 모델 라우팅 규칙을 만들면 전체 효율이 좋아진다.
  • 태그: 모니터링, 성능계측

  • 🔄 [개선] preemptive-compaction 훅 추가

  • 프롬프트/출력량이 큰 작업에서 선제적(compaction) 훅을 두어 입출력 크기를 줄이면 LLM 호출 비용과 레이턴시를 절감할 수 있다.
  • 태그: 비용절감, 프롬프트엔지니어링

  • 🔧 [해결] 작업별 에이전트 수점진 확장

  • 단일 에이전트로 많은 역할을 처리하지 않고 필요 시 에이전트를 8→12개처럼 단계적으로 늘려 역할을 세분화해 병렬성과 전문성을 확보한다.
  • 태그: 스케일링, 조직화

  • 📚 [교훈] 문서·로그로 의사결정 기록 필수

  • 의사결정(예: OMC 도입 여부, 모델 공개 확인 등)을 즉시 세션 로그에 남겨 정정사항이나 근거를 추적 가능하게 해야 혼선을 줄일 수 있다.
  • 태그: 거버넌스, 추적성

  • 💡 [발견] 외부 문서 확인 후 판단 정정 사례

  • 초기엔 gpt-5.4-mini 공개 불확인으로 판단했으나 공식 문서 재확인으로 정정됨 — 외부 문서 확인 단계를 명시적으로 포함해야 함을 확인함.
  • 태그: 검증절차, 신뢰성

  • 🔧 [해결] 자동화 스크립트→유닛/통합 테스트 순서

  • 새 기능(예: recovery 리포트 자동화)을 개발할 때 스크립트 작성 후 바로 유닛·통합 테스트를 작성해 안정성 확보와 회귀 방지를 동시에 진행한다.
  • 태그: 개발워크플로우, 테스트

  • 📚 [교훈] LLM 호출 통계로 운영 의사결정 보강

  • 총 호출수·성공률·프롬프트/응답량·에러 수 같은 지표를 정기적으로 관찰하면 모델선택·라우팅·비용정책을 데이터 기반으로 조정할 수 있다.
  • 태그: 계량운영, 데이터기반

  • ⚖️ [판단] 빠른 실행 vs 심층 판단의 역할 분리 기준

  • 작업을 '즉시 실행이 우선인 것'과 '심층 분석이 필요한 것'으로 분류해 전자는 빠른 모델(혹은 더 많은 실행 슬롯)에, 후자는 심층 모델에 배정한다.
  • 태그: 우선순위, 모델선택

2026-03-19

  • 🔧 [해결] 대형 기능은 전부 도입하지 않고 핵심만 체리픽한다
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 코드 개발에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용함으로써 비용·복잡도를 줄임.
  • 태그: 범위선정, 비용절감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리한다

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 모델을 역할과 성능 특성에 따라 3단계로 나눠서 라우팅하면 호출 효율과 응답 지연을 최적화할 수 있다.
  • 태그: 모델선택, 성능분류

  • 💡 [발견] 많은 호출량에서 성공률과 평균 레이턴시는 모델별로 큰 차이를 보인다

  • 일일 통계에서 호출 수가 큰 모델(claude-sonnet)은 낮은 레이턴시를 보이고 일부 모델(gpt-5-mini, qwen2.5 등)은 실패/0% 성공률을 기록해, 실제 운영에서는 호출 통계로 모델 신뢰도를 판단해야 함.
  • 태그: 관찰, 운영지표

  • 🔄 [개선] 로컬 CLI와 설정으로 모델 오버라이드를 지원한다

  • Codex CLI가 -m/--model 및 config.toml의 model 키를 통해 모델 변경을 지원하는 것을 확인해, 배포·테스트 환경에서 신속히 모델 스위칭 가능한 워크플로를 도입함.
  • 태그: 운영자동화, 배포

  • 🔧 [해결] 복구 리포트와 테스트 자동화를 병행해 회복력 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 작성으로 장애 시 수집·검증·보고 흐름을 자동화해 복구 시간과 수작업을 줄임.
  • 태그: 복구, 테스트

  • 📚 [교훈] 초기 공개정보 판단 오류는 즉시 정정하고 로그에 남긴다

  • 08:15에 gpt-5.4-mini 공개 불가로 기록했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정함 — 정보 판단 불확실 시 빠른 재검증과 정정 기록이 필요함.
  • 태그: 정보검증, 기록

  • 💡 [발견] 도메인 적합성이 도입 결정의 핵심 기준이다

  • OMC 전체 도입을 거부한 근거가 '코드 개발 전문이 아닌 도메인 불일치'였음 — 도구/방법 도입 시 도메인 적합성(전문성 매치)을 우선 검토해야 함.
  • 태그: 도입기준, 도메인적합성

  • 🔄 [개선] 작업별 에이전트 확장으로 역할 세분화

  • 에이전트를 8개에서 12개로 확장(analyst, report-writer 등 추가)해 역할을 세분화함으로써 각 작업에 특화된 처리 파이프라인을 구성하고 책임을 명확히 함.
  • 태그: 조직화, 책임분리

2026-03-19

  • 🔧 [해결] 필요한 기능만 체리픽하여 도입한다
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 핵심 가치가 있는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함. 전체 도입 대신 선별 적용으로 비용과 복잡도 절감.
  • 태그: 단계적도입, 비용절감, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리한다

  • 심층 판단은 Opus에, 분석·디버깅은 Sonnet에, 빠른 실행은 Haiku에 할당하는 3단계 모델 라우팅을 채택해 각 모델의 강점에 따라 작업을 배치함. 성능·지연·역할을 기준으로 판단.
  • 태그: 모델선택, 역할기반, 성능기준

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원함

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원함을 확인함 — 로컬 환경에서 모델 전환이 가능해 배포·테스트 유연성이 확보됨.
  • 태그: 도구능력, 환경설정, 유연성

  • 🔧 [해결] 에이전트 확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 역할을 추가해 책임을 분리하고 작업 병렬도를 높임.
  • 태그: 조직화, 스케일링, 책임분리

  • 🔄 [개선] 프롬프트·호출 통계로 운영 모니터링

  • 총 호출수, 성공률, 프롬프트·응답 총량, 모델별 레이턴시를 지속적으로 기록해 모델 성능·비용·에러 추이를 파악하도록 함. 지표 기반 의사결정 워크플로우로 개선.
  • 태그: 관측가능성, 메트릭, 운영

  • 📚 [교훈] 초기 불확실 정보는 정정 절차 필요

  • 08:15에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공식 문서 확인으로 정정함. 중요한 사실은 즉시 확인·정정하는 절차(타임스탬프 포함)를 둬야 혼선 최소화.
  • 태그: 정보검증, 정정절차, 투명성

  • 💡 [발견] 전쟁·지정학적 이벤트는 섹터별 수혜를 유발

  • 대화 로그에서 전쟁 관련 뉴스가 방산·에너지·금·사이버보안·해운·비료·우라늄 등 섹터의 실적·수요에 직접적인 영향을 줌을 확인 — 이벤트→섹터 맵핑은 투자 리서치에 반복 적용 가능.
  • 태그: 도메인지식, 이벤트영향, 투자리서치

  • 🔧 [해결] 사용자 불만엔 빠르게 커버리지 보완 제공

  • 사용자 질문(특정 종목 누락 불만)에 대해 사과 후 즉시 관련 섹터(전쟁 수혜주 전체 맵)를 정리·제공해 누락 문제를 해결하고 신뢰 회복함. 불만 대응 흐름: 인정 → 보완 정보 제공.
  • 태그: 고객응대, 사과및보완, 리포트생성

2026-03-19

  • 🔧 [해결] 범용 도입 대신 핵심 3가지를 체리픽해서 적용
  • 전체 OMC 도입은 도메인 불일치로 비효율적이라 판단하고, 필요성 높은 세 가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 비용과 복잡도를 줄이고 효과를 확보함.
  • 태그: 체리픽, 비용절감, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할별(심층/분석/빠른실행)로 분리

  • 에이전트 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할에 따라 모델을 배치하면 성능·응답속도·비용을 균형있게 맞출 수 있음.
  • 태그: 모델선택, 라운팅, 성능비용균형

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 및 model 키로 모델 변경이 가능하다는 사실을 확인하여, 배포 환경에서 모델 전환이 유연하게 가능함을 확인함.
  • 태그: 툴기능, 운영유연성

  • 🔄 [개선] 에이전트 확장으로 전문화된 역할 할당

  • 에이전트를 8개에서 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 역할을 추가함으로써 작업 분리와 책임 명확화를 개선함.
  • 태그: 조직화, 전문화, 스케일링

  • 🔧 [해결] 사전 압축(preemptive-compaction) 훅으로 리소스 안정화

  • preemptive-compaction 스크립트를 훅으로 도입해 런타임 전 데이터·프롬프트를 정리함으로써 호출 비용과 레이턴시 변동을 완화함.
  • 태그: 성능, 운영자동화

  • 📚 [교훈] 문서 확인 결과를 바로 기록하고 정정하라

  • 초기에 gpt-5.4-mini 공개 여부를 부정했다가 공식 문서 확인으로 정정한 사례에서, 외부 정보는 확인 즉시 의사결정 로그에 기록하고 변경 사항을 명확히 남겨 혼선과 중복조사를 줄여야 함.
  • 태그: 검증, 투명성, 기록

  • 🔄 [개선] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하면서 recovery_collector에 유닛·통합 테스트를 추가해 자동화 신뢰도를 높이는 워크플로우로 전환함.
  • 태그: 테스트, 자동화, 신뢰성

  • 💡 [발견] 모델별 호출 통계로 성능·비용 인사이트 획득

  • 모델별 호출 수·성공률·평균 레이턴시 집계를 통해 어떤 모델이 빠르고 안정적인지 파악되어 라우팅·할당 정책에 실증적 근거를 제공함.
  • 태그: 관측, 계량지표, 정책근거

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽해서 일부만 도입한다
  • OMC(큰 프레임워크)는 전체 도입 대신 도메인 적합성 검토 후 '3가지 체리픽'을 선택해 필요한 기능만 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 비용·리스크를 줄이고 빠른 가치 제공을 우선함.
  • 태그: 체리픽, 단계적도입, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 나눈다

  • 에이전트 분담을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할과 기대 성능에 따라 모델/에이전트 라우팅을 결정함 — 판단 기준은 작업 복잡도와 응답속도 요구.
  • 태그: 모델라우팅, 역할분리, 성능기준

  • 💡 [발견] 로컬 Codex는 모델 오버라이드를 지원한다

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키를 통해 로컬 환경에서 모델을 변경할 수 있음 — 문서와 실환경 확인으로 기능성 확인됨.
  • 태그: 도구기능, 환경설정

  • 🔄 [개선] 대규모 도입 대신 부분 적용 + 자동화 스크립트 병행

  • 처음에 OMC 전체 도입을 피하고 핵심 3가지를 체리픽한 뒤, recovery 리포트 자동화 스크립트와 유닛/통합 테스트(recovery_collector)를 작성해 안정성과 반복 가능성을 확보하는 워크플로우로 전환.
  • 태그: 자동화, 테스트, 점진적배포

  • 🔧 [해결] 모델별 에이전트로 역할을 나눠 레이턴시·성공률 최적화

  • 호출 통계에서 모델별 레이턴시 차이를 반영해 업무별로 적합한 모델에 작업을 할당(심층 판단엔 레이턴시 큰 모델, 잦은 빠른 작업엔 레이턴시 낮은 모델)하여 전체 성공률과 처리 효율을 개선.
  • 태그: 성능최적화, 모델선택

  • 💡 [발견] 로그/통계 반복 기록으로 의사결정 수정이 빨라짐

  • 같은 날 동일 항목에 대한 '정정'이 기록됨(08:15 → 08:16), 문서/통계 검토 후 빠르게 의사결정을 업데이트 하는 프로세스가 자리잡혀 있음 — 지속적 모니터링이 중요함.
  • 태그: 의사결정, 모니터링

  • 📚 [교훈] 대화 응대 범위가 작업 목적과 어긋나면 오해 발생

  • Q1 사례: 사용자 관심(특정 종목 추천)을 놓치고 '에너지'만 파고들어 사후에 사과 및 보완 제공 — 작업 전 사용자 의도 확인과 범위 맞춤 응대 필요.
  • 태그: 고객응대, 요구확인

  • ⚖️ [판단] 공식 문서 확인이 우선 — 초기 불확실성은 정정 가능성 포함

  • gpt-5.4 mini 공개 여부에 대해 최초에는 확인 불가로 기록했다가 추가 검증 후 공개 표기를 확인함 → 문서 기반 확인 우선, 변경사항은 로그로 명확히 남겨야 함.
  • 태그: 검증우선, 문서확인

2026-03-19

  • 🔧 [해결] 체리픽 접근으로 불필요한 전면 도입 회피
  • OMC(전체 도입)를 그대로 적용하지 않고 도메인 적합성 판단 후 핵심 3가지만 체리픽하여 개발 리스크와 작업량을 줄임. 즉, 전면 도입 대신 '문제에 맞는 부분만 선택 적용'으로 해결함.
  • 태그: 전략, 리스크관리

  • 🔧 [해결] 모델 역할 분리로 작업 병렬화

  • 에이전트를 모델별(심층 판단/분석·디버깅/빠른 실행)로 라우팅해 역할을 명확히 하고 각 모델에 최적화된 작업을 분담시킴으로써 효율과 응답 특성 개선.
  • 태그: 아키텍처, 성능

  • ⚖️ [판단] 도입 여부는 도메인 적합성으로 결정

  • 기술 제안(예: OMC)을 무조건 채택하지 않고 '코드 개발 전문성과의 부합 여부'를 기준으로 전체 도입 vs 부분 채택을 결정함.
  • 태그: 의사결정기준

  • 💡 [발견] 모델별 레이턴시·성공률 차이 관찰

  • 동일 워크로드에서 모델별 호출 수·평균 레이턴시·성공률이 다르게 나타나며, 이를 근거로 모델 라우팅과 호출 우선순위를 정할 수 있음(예: sonnet 낮은 레이턴시로 분석에 적합).
  • 태그: 관측, 모델선택

  • 🔄 [개선] preemptive-compaction 훅으로 프롬프트·자원 관리

  • 프롬프트 비용과 호출량이 큰 환경에서 선제적 압축(preemptive-compaction) 스크립트를 도입해 프롬프트 총량을 줄이고 LLM 호출 부담을 경감함.
  • 태그: 비용절감, 운영

  • 📚 [교훈] 초기 부정확 정보는 즉시 정정하고 로그에 남겨라

  • gpt-5.4 mini 공개 여부가 처음엔 확인 불가로 기록되었으나 곧 정정되어야 했음. 중요한 외부 사실은 확인 후 기록·정정하는 절차가 필요함.
  • 태그: 검증, 문서화

  • 🔧 [해결] 작업 단위 자동화(리포트·테스트)로 반복 업무 축소

  • recovery 리포트 자동화 스크립트와 통합 테스트 작성으로 반복적 리포트·검증 작업을 코드로 대체해 품질과 재현성을 높임.
  • 태그: 자동화, 테스트

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 도입
  • OMC 전체 도입이 불필요하다고 판단될 때, 전체 적용 대신 도메인에 맞는 핵심 기술 3가지를 선별(cherry-pick)해 도입하여 개발 비용과 적합성 문제를 줄임.
  • 태그: 의사결정, 리스크관리

  • 🔧 [해결] 모델별 역할 분리로 라우팅 최적화

  • 작업 성격에 따라 모델을 역할별로 분리(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)하여 요청을 적절한 모델로 라우팅함으로써 레이턴시·정확도·처리량을 균형있게 관리.
  • 태그: 아키텍처, 성능

  • 🔧 [해결] 사전 압축(preemptive-compaction)으로 프롬프트 효율화

  • 프롬프트 크기와 호출 비용을 줄이기 위해 응답/데이터를 사전에 압축하는 훅을 도입(preemptive-compaction.sh)하여 LLM 호출 효율을 높임.
  • 태그: 비용절감, 엔지니어링

  • ⚖️ [판단] 모델 변경 가능성 판단은 공식 문서 + 로컬 지원 확인

  • 신규 모델 공개 여부를 판단할 때는 먼저 공식(공급사) 문서를 확인하고, 동시에 로컬 툴(예: Codex CLI)의 오버라이드 옵션(-m/--model, config.toml)을 확인해 실제 적용 가능성을 판단함.
  • 태그: 판단기준, 운영절차

  • 💡 [발견] 모델별 레이턴시·호출 패턴이 운영 결정에 영향

  • 세션 통계에서 모델별 호출 수와 평균 레이턴시(예: cliproxy/claude-sonnet-4-6이 낮은 레이턴시, github-copilot가 긴 레이턴시)를 관찰하면 라우팅·스케일링·모델 선택 정책 수립에 직접적인 근거가 됨.
  • 태그: 메트릭, 운영험증

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 대응

  • 에이전트 수를 단순히 늘리는 대신 역할을 세분화(analyst, report-writer, pipeline-debugger-deep 등)하여 책임 분담과 전문성을 확보함으로써 확장 효과를 극대화함.
  • 태그: 조직화, 확장성

  • 📚 [교훈] 초기 과잉적용은 도메인 부적합 초래

  • 시스템·방법론(OMC)을 무분별하게 전체 도입하면 도메인 적합성 문제가 생기므로, 처음에는 작은 셋을 선별 적용해 검증 후 확대해야 한다는 교훈.
  • 태그: 교훈, 실무

  • 📚 [교훈] 데이터·결과 정정 기록의 중요성

  • 08:15→08:16 정정 사례에서 보듯 문서화된 의사결정은 정정이 발생했을 때 즉시 업데이트하여 혼선과 잘못된 판단을 줄여야 함.
  • 태그: 문서화, 투명성

2026-03-19

  • 🔧 [해결] 체리픽 방식으로 필요한 요소만 도입
  • OMC 전체 도입이 도메인에 맞지 않을 때, 핵심 가치가 있는 소수 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 부분 적용한다. 전체 전면 도입 대신 부분 적용으로 개발 비용과 불필요한 복잡성을 줄임.
  • 태그: 부분적도입, 체리픽, 비용절감

  • 🔧 [해결] 모델 특성별 라우팅으로 작업 분배

  • 작업 성격에 따라 모델(예: Opus: 심층판단, Sonnet: 분석·디버깅, Haiku: 빠른실행)로 라우팅해 각 모델의 강점을 살려 처리 효율과 응답 품질을 개선한다.
  • 태그: 모델라우팅, 작업분배, 성능최적화

  • ⚖️ [판단] 전면 도입 vs 선택적 도입은 도메인 적합성으로 판단

  • 새 프레임워크나 방법론을 도입할 때 '도메인 적합성'을 우선 기준으로 삼아 전체 도입 대신 적합한 부분만 선택적으로 채택할지 결정한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로그·통계로 모델 활용·성능 패턴 확인

  • 세션별 LLM 호출 통계(총 호출, 성공률, 프롬프트/응답량, 모델별 레이턴시)를 통해 어떤 모델이 어떤 작업에 효율적인지, 실패·에러 패턴이 어디서 발생하는지 파악할 수 있다.
  • 태그: 관찰, 모니터링, 성능분석

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 진행

  • 에이전트 수를 단순 증설이 아니라 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)로 세분화해 책임과 기능을 명확히 분리함으로써 확장 시 관리·디버깅 비용을 낮춘다.
  • 태그: 아키텍처, 역할분리, 확장전략

  • 🔧 [해결] 정정·검증 루프를 빠르게 돌려 사실 확인

  • 문서나 외부 공개 여부(예: 모델 공개 여부) 관련 정보가 바뀌면 빠르게 정정 로그를 남기고, CLI·로컬 설정에서 지원 여부를 확인해 의사결정에 반영한다.
  • 태그: 사실검증, 정정절차, 정보갱신

  • 📚 [교훈] 부분적 자동화+테스트로 안정성 확보

  • recovery 리포트 자동화와 recovery_collector 유닛/통합 테스트를 동시에 진행한 사례에서, 자동화 도입 시 테스트를 병행해야 회복/리포트 파이프라인의 신뢰도를 확보할 수 있음이 드러남.
  • 태그: 자동화, 테스트, 신뢰성

  • 📚 [교훈] 높은 호출량에도 모델 선택과 모니터링 필요

  • 총 호출 증가와 모델별 성공률/레이턴시 차이를 통해 호출량이 커질수록 모델별 특성(응답속도·성공률)에 맞춘 분배·모니터링이 중요하다는 교훈을 얻음. 에러 추적(6건 등)도 병행해야 함.
  • 태그: 운영교훈, 모니터링, 스케일링

2026-03-19

  • 🔧 [해결] 범위 축소로 영향 큰 부분만 체리픽
  • 전체 OMC 방식을 도입하는 대신 도메인 적합성에 따라 핵심 3가지를 선택해(cherry-pick) 구현함으로써 개발 비용과 위험을 줄이고 목표 효과는 유지한다. 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction만 적용.
  • 태그: 체리픽, 범위관리, 리스크감소

  • ⚖️ [판단] 도메인 적합성으로 전체 도입 여부 결정

  • 새 프레임워크(OMC 등)를 도입할 때는 '코드 개발 전문성'처럼 도메인 적합성을 기준으로 전체 도입 vs 부분 도입을 판단한다. 적합하지 않으면 핵심만 선별 적용.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델 역할별 라우팅이 성능·지연 최적화에 유리

  • 작업 유형에 따라 모델을 나눠(Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행) 라우팅하면 책임 분리와 평균 레이턴시·성능 최적화가 가능함.
  • 태그: 모델라우팅, 성능최적화

  • 🔄 [개선] 에이전트 세분화로 병렬 처리 능력 향상

  • 기존 8개 에이전트를 12개로 확장해 역할을 명확히 하고 병렬 처리량과 전문성을 높임(분석자, 리포트 작성자, 디버거 등 추가).
  • 태그: 아키텍처, 스케일링

  • 🔧 [해결] 사전정리(preemptive-compaction)로 프롬프트 비용 절감

  • 대화/로그 등 입력을 미리 압축·정리(preemptive-compaction)해 LLM 프롬프트 길이를 줄이고 호출 비용과 지연을 낮춤.
  • 태그: 프롬프트최적화, 비용절감

  • 📚 [교훈] 공식 문서 기준 확인 후 정정·기록하라

  • gpt-5.4-mini 공개 여부를 두 차례에 걸쳐 정정한 사례처럼, 초기 불확실 정보는 빠르게 공식 출처로 확인하고 결과와 변경 사항을 의사결정 로그에 남겨야 혼선과 반복작업을 줄인다.
  • 태그: 검증, 기록

  • 🔧 [해결] 사용자 불만 대응: 사과 + 누락된 정보 즉시 보완

  • 사용자가 '왜 소개 안 해주냐'고 불만 표할 때 즉시 사과하고 누락된 섹터(전쟁 수혜주 등)를 정리해 제공하여 신뢰 회복과 요구 충족을 동시에 수행함.
  • 태그: 고객응대, 콘텐츠보완

  • 💡 [발견] 시간대별·세션별 LLM 호출 통계로 병목·비효율 파악

  • 세션별·모델별 호출 수, 성공률, 레이턴시 통계를 기록하면 특정 모델의 실패·지연 패턴을 찾아 라우팅·재시도 정책을 개선할 수 있음.
  • 태그: 관찰, 모니터링

2026-03-19

  • 🔧 [해결] 대형 프레임워크 전체 도입 대신 핵심 기능 3개만 체리픽
  • OMC 전체 도입은 도메인 불일치로 판단하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지만 적용해 비용과 복잡도를 줄이며 효과를 확보함.
  • 태그: 체리픽, 비용절감, 점진적도입

  • ⚖️ [판단] 프레임워크 채택 여부는 도메인 적합도로 결정

  • 새 방식(OMC 등)을 도입할 때 '코드 개발 전문성' 등 도메인 적합성이 낮으면 전체 도입을 피하고, 도메인에 맞는 일부 기능만 선별 적용함.
  • 태그: 의사결정기준, 도메인적합성

  • 🔧 [해결] 모델 성능·지연에 따라 역할별 모델 라우팅 설계

  • Opus는 심층 판단, Sonnet은 분석·디버깅, Haiku는 빠른 실행처럼 모델 특성(심층/분석/속도)에 맞춰 에이전트를 배치해 전체 파이프라인 효율을 높임.
  • 태그: 모델라우팅, 역할분담, 성능기반

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅을 도입해 프롬프트 비용 절감

  • 프롬프트 총량과 응답량이 큰 환경에서 preemptive-compaction 스크립트를 추가해 전송 데이터량을 줄이고 비용과 레이턴시를 개선함.
  • 태그: 비용절감, 프롬프트최적화, 자동화

  • 🔧 [해결] 에이전트 확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문화된 역할을 부여해 작업 병렬성과 책임 경계를 명확히 함.
  • 태그: 조직화, 스케일업, 역할분화

  • 💡 [발견] 공식 문서 확인 전과 후의 정정 발생

  • 초기에 gpt-5.4 mini 공개 여부를 확인하지 못했다가 공식 Models 문서 확인으로 정정됨 — 문서 기반 확인이 의사결정 신뢰성에 직접 영향.
  • 태그: 문서검증, 신뢰성

  • 📚 [교훈] 모델 공개 여부는 공식 소스(문서)로 최종 확인해야 함

  • 초기 정보 불확실성으로 잘못 기록했다가 정정한 사례에서, 외부 모델/버전 정보는 반드시 공식 문서나 공급사 소스에서 교차검증해야 혼선을 줄일 수 있음.
  • 태그: 검증절차, 교훈

  • 🔧 [해결] 자동화 스크립트 + 유닛/통합 테스트로 리포트 파이프라인 안정화

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화 산출물의 신뢰성을 확보함.
  • 태그: 테스트, 자동화, 신뢰성

  • 💡 [발견] LLM 호출 통계로 운영 결정을 지원

  • 총 호출, 성공률, 프롬프트 총량, 모델별 평균 레이턴시 등 지표를 수집·표로 정리해 모델 선택·라우팅·비용 최적화에 활용함.
  • 태그: 관찰, 지표기반의사결정

  • 📚 [교훈] 지표·로그는 의사결정 근거로 즉시 활용하라

  • 실제 호출 통계(성공률·레이턴시)가 모델 라우팅 및 에이전트 배치 판단의 핵심 근거가 되었으므로, 운영 중인 지표를 실시간으로 모니터링·활용하는 절차가 중요함.
  • 태그: 운영모범, 모니터링

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 작은 부분만 도입
  • 전체 OMC 도입이 도메인에 맞지 않을 때, 핵심 유용한 부분(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 세 가지를 선정해 부분적으로 적용함으로써 비용과 위험을 낮춤.
  • 태그: 체리픽, 점진도입, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 결정

  • 성능/목적에 따라 모델을 분류(심층 판단용 Opus, 분석·디버깅용 Sonnet, 빠른 실행용 Haiku)해 요청을 라우팅하면 각 모델의 강점을 살릴 수 있음.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 모델별 레이턴시와 호출비중이 운영 품질에 영향

  • 세션 통계에서 모델별 호출 수와 평균 레이턴시가 다르며, 높은 호출량 + 낮은 레이턴시 모델을 주로 사용하면 전체 성공률과 응답성에 유리함.
  • 태그: 운영관찰, 성능측정

  • 🔄 [개선] 로컬 툴체인 설정으로 모델 오버라이드 지원

  • Codex CLI의 -m/--model 및 config.toml model 키로 모델을 오버라이드 가능하니, 배포·테스트 환경에서 빠르게 모델 전환을 지원하도록 설정 관리 프로세스를 정비함.
  • 태그: 툴설정, 유연성, 배포

  • 🔧 [해결] 에이전트 확장은 역할 분화로 해결

  • 단일 에이전트를 무작정 늘리기보다 새로운 기능(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 역할별로 분리해 확장함으로써 유지보수성과 책임 경계를 명확히 함.
  • 태그: 아키텍처, 역할분리

  • 📚 [교훈] 초기 전체 도입보다 검증 가능한 소규모 적용 우선

  • OMC를 통째로 도입하려 했다가 도메인 불일치로 비용 발생 가능성을 확인, 이후 핵심 3가지만 체리픽해 적용한 사례로 '작게 검증→확대'가 안전함을 확인함.
  • 태그: 검증우선, 작게시작

  • 💡 [발견] 데이터(프롬프트·응답량) 누적은 디버깅/자동화의 근거

  • 프롬프트·응답 총량, 호출수, 에러 수 같은 지표를 주기적으로 기록하면 자동화 스크립트(예: recovery 리포트, recovery_collector 테스트) 개발 시 우선순위와 실패 원인 분석에 유용함.
  • 태그: 관찰, 지표기반

2026-03-19

  • 🔧 [해결] 도메인 미스매치일 때 전체 도입 대신 핵심만 체리픽
  • OMC 전체 도입이 도메인에 맞지 않다고 판단되면 전체를 적용하지 않고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 같은 실용적이고 영향 큰 3가지 기능만 선별해 적용하여 비용과 복잡도를 줄임.
  • 태그: 적용전략, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 작업 성격(심층 판단 vs 분석·디버깅 vs 빠른 실행)로 결정

  • 작업을 '심층 판단', '분석·디버깅', '빠른 실행'으로 분류하고 각각을 Opus / Sonnet / Haiku에 할당하는 3단계 라우팅을 사용해 성능(정확도·지연)과 비용을 균형시킴.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 모델별 실제 레이턴시·성공률 차이가 작업 배치에 직접 영향

  • 세션 통계에서 cliproxy/claude-sonnet-4-6의 평균 레이턴시가 낮고 성공률이 높아(예: 4,040ms vs 11,000~14,000ms) 분석·디버깅 용도로 적합하다는 사실이 확인됨. 즉 통계 기반으로 라우팅 우선순위를 조정함.
  • 태그: 계측, 운영

  • 🔄 [개선] 에이전트 확장으로 단일 에이전트의 역할 분리

  • 기존 단일 또는 소수 에이전트에서 역할을 더 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)해 각 에이전트가 전문 책임을 갖도록 변경하여 유지보수성과 병렬 처리량을 개선함.
  • 태그: 워크플로우, 모듈화

  • 🔧 [해결] 회복·리포트 자동화 → 유닛/통합 테스트로 신뢰성 확보

  • recovery 리포트 자동화 스크립트를 만들고 recovery_collector에 대해 유닛·통합 테스트를 작성해 자동화 코드의 신뢰성을 높이고 배포 리스크를 낮춤.
  • 태그: 테스트, 자동화

  • 📚 [교훈] 문서 확인 오류(초기 불확실한 정보)는 바로 정정·기록하라

  • 초기에 gpt-5.4 mini 공개 여부가 불확실하게 기록되었다가 정정된 사례처럼, 외부 문서(공식 모델 문서 등)를 검증·재확인하고 변경사항을 의사결정 로그에 남기면 혼선과 후속 오류를 줄일 수 있음.
  • 태그: 신뢰성, 문서관리

  • ⚖️ [판단] 전체 교체보다 부분 개선이 우선일 때는 영향·전문성 기준으로 결정

  • 코드 개발 전문 영역에는 전체 시스템 방식(OMC)을 도입하기보다 해당 도메인에 영향이 큰 소수 기능을 먼저 적용하는 것이 효율적임 — 판단 기준: 도메인 적합성, 개발 비용, 기대 임팩트.
  • 태그: 결정기준, 우선순위

  • 💡 [발견] LLM 호출 통계는 운영 최적화의 주요 신호

  • 총 호출 수·성공률·프롬프트·응답량·에러 수 등 지표를 주기적으로 관찰하면 모델 교체·라우팅·캐파 조정 등 운영 결정을 데이터로 근거 있게 내릴 수 있음.
  • 태그: 모니터링, 데이터기반

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽(부분 도입)으로 위험 최소화
  • 전체 OMC를 도입하지 않고 도메인에 맞는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별 적용해 개발 부담과 리스크를 줄임
  • 태그: 리스크관리, 단계적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 역할과 처리 성격에 따라 모델·에이전트를 분리해 라우팅 결정
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함 — 로컬에서 모델 전환이 가능
  • 태그: 툴기능, 운영

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 8개에서 analyst/report-writer/pipeline-debugger-deep/cron-doctor-deep 등을 추가해 총 12개로 확장하여 책임 분리와 전문성 강화
  • 태그: 조직구조, 확장성

  • 🔧 [해결] recovery 리포트 자동화로 반복작업 제거

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛 테스트를 작성해 수동 리포트 작성과 검증 부담을 줄임
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 성능·비용 판단 근거 확보

  • 모델별 호출수, 성공률, 평균 레이턴시를 수집해 어떤 모델을 어느 작업에 배치할지 데이터 기반으로 결정함
  • 태그: 모니터링, 데이터기반

  • 📚 [교훈] 정보 불확실성은 정정과 기록으로 해결

  • gpt-5.4 mini 공개 여부가 초기에는 확인 불가로 기록되었다가 정정 로그로 공개 표기를 확인해 의사결정 변경을 남김 — 불확실할 땐 정정 로그를 남겨 추적 가능하게 하라
  • 태그: 운영절차, 투명성

  • ⚖️ [판단] 섹터 추천은 데이터·사건 기반으로 설명

  • 시장 섹터(방산·에너지·금·사이버보안·해운·비료)를 추천할 때 사건(무기 증산 요청, 가스전 피격 등)과 수익률 데이터를 함께 제시해 신뢰도를 높임
  • 태그: 의사소통, 근거제시

2026-03-19

  • 🔧 [해결] 문제별 모델 분리로 효율 향상
  • 대규모 OMC 도입 대신 도메인 적합한 기능만 체리픽(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 개발 비용과 복잡도를 줄이고 성공률 유지함.
  • 태그: 아키텍처, 효율, OMC

  • 🔧 [해결] 3단계 모델 라우팅으로 역할 분담

  • 라우팅을 Opus(심층 판단) / Sonnet(분석·디버깅) / Haiku(빠른 실행)로 나눠 각 모델의 강점을 살려 요청을 적절히 분산시킴.
  • 태그: 모델관리, 스케일링, 라우팅

  • ⚖️ [판단] 전체 도입 vs 체리픽 — 도메인 적합성 기준

  • 새 프레임워크나 방법론을 도입할 때 도메인 적합성을 기준으로 판단. 전체 적용이 불필요하면 핵심 유용 기능만 선택적으로 채택한다.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 로컬 툴은 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키로 모델 변경을 지원함을 확인 — 로컬 환경에서 빠른 모델 교체 가능.
  • 태그: 도구, 발견, Codex

  • 💡 [발견] 모델별 레이턴시·호출패턴 차이 관찰

  • 같은 작업군에서도 모델별 호출수·평균 레이턴시가 크게 달라짐(gpt-5-mini vs claude-sonnet 등). 작업에 맞는 모델 선택으로 전체 성능 최적화 가능.
  • 태그: 측정, 모델선택, 성능

  • 🔄 [개선] 체리픽+자동화 결합 워크플로우

  • 선별적 기능 채택(체리픽) 후 스크립트와 훅(preemptive-compaction, session_learner.py 등)으로 자동화해 유지비용을 줄이는 흐름으로 전환.
  • 태그: 워크플로우, 자동화, 운영

  • 📚 [교훈] 정정 로그를 즉시 남겨 혼선 방지

  • 모델 공개 여부 등 정보가 바뀌면(문서 업데이트 등) 즉시 정정 로그를 남겨 의사결정·추적 오류를 줄여야 함(08:15 → 08:16 정정 사례).
  • 태그: 운영, 투명성, 커뮤니케이션

  • 📚 [교훈] 작은 범위에서 검증한 뒤 확장

  • 새 접근을 전체에 적용하기보다 먼저 3가지 핵심만 구현해 검증한 뒤 확장하는 것이 실패 리스크와 비용을 줄임.
  • 태그: 리스크관리, 검증, 점진적확장

2026-03-19

  • 🔧 [해결] 대규모 기능은 체리픽으로 축소
  • OMC 전체 도입이 도메인과 맞지 않아 불필요하다고 판단하고, 대신 적용할 가치가 큰 3가지만 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 구현함. 큰 변화는 부분 적용으로 리스크와 비용을 줄이는 방식.
  • 태그: 체리픽, 리스크관리, 점진적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 모델을 기능·역할 기준으로 라우팅해 각 모델에 맞는 태스크를 할당함. 성능·레이턴시·역할 적합성을 기준으로 판단.
  • 태그: 모델라우팅, 역할기반, 성능기준

  • 💡 [발견] 로컬 CLI와 문서의 정보 정합성 확인 필요

  • 초기에는 gpt-5.4-mini 공개 여부가 불확실했으나 공식 문서 재확인으로 공개 표기가 확인됨. 외부 문서와 로컬 툴(Codex CLI) 설정을 모두 검증해야 함을 확인.
  • 태그: 문서검증, 도구설정, 정합성

  • 🔄 [개선] 에이전트 확장으로 전문화 진행

  • 에이전트 수를 8→12로 늘리고 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 역할을 세분화함. 하나의 범용 에이전트보다 전문 에이전트로 책임 분리하는 워크플로우로 개선.
  • 태그: 에이전트설계, 전문화, 워크플로우

  • 🔧 [해결] 프롬프트·응답 추적으로 호출 안정성 확보

  • LLM 호출 통계를 주기적으로 기록(총 호출, 성공률, 프롬프트/응답량, 모델별 평균 레이턴시 등)해 에러나 성능 이슈를 모니터링하고 안정성을 유지함.
  • 태그: 모니터링, LLM운영, 관찰성

  • 📚 [교훈] 부분확인 후 급격한 결론 금지

  • 초기 판단(공개 여부 불확실)을 바로 결론으로 삼지 않고 문서 재확인으로 정정한 사례에서, 불완전한 정보로 의사결정하면 혼선이 생김 — 확인 절차를 표준화해야 함.
  • 태그: 교훈, 검증절차, 정보품질

  • 💡 [발견] 전쟁·정세 이벤트가 섹터별 수혜 연결

  • 대화에서 전쟁 관련 뉴스가 방산, 에너지, 금, 사이버보안, 해운, 비료 등 구체 섹터의 수혜로 연결되었음. 외부 사건이 산업별 수혜·리스크로 빠르게 전파됨을 확인.
  • 태그: 도메인지식, 사건영향, 섹터연결

  • 🔄 [개선] 복구 리포트·테스트 자동화 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 작성 시작으로 복구 파이프라인의 자동화·검증을 동시에 진행해 운영 신뢰도를 높이는 패턴.
  • 태그: 자동화, 테스트, 복구

  • ⚖️ [판단] 작업 우선순위는 도메인 적합성으로 결정

  • OMC 전체 도입 대신 도메인 적합성을 고려해 일부만 채택했듯, 새로운 도구나 패턴 도입 시 전체 적용보다 적합성·비용·효과를 우선 판단함.
  • 태그: 우선순위, 도입기준, 도메인적합성

2026-03-19

  • 🔧 [해결] 도메인 불일치시 체리픽(부분 도입)
  • 전체 OMC 도입이 도메인과 맞지 않다고 판단될 때, 전체 도입 대신 핵심 가치 있는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 복잡도를 줄임.
  • 태그: 범위결정, 효율성

  • ⚖️ [판단] 모델 라우팅은 역할별로 계층화

  • 모델 라우팅을 성능/역할 기준으로 나눔: Opus는 심층 판단, Sonnet은 분석·디버깅, Haiku는 빠른 실행처럼 역할별로 모델을 배치해 책임과 성능을 최적화함.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키를 통해 로컬에서 모델을 오버라이드할 수 있음을 확인 — 문서 확인 후 로컬 설정으로 대응 가능.
  • 태그: 툴링, 설정관리

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 단일 에이전트에서 여러 책임을 감당하던 방식에서, analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등을 추가해 에이전트 수를 8→12로 늘려 역할을 명확히 분리하고 작업 병렬성을 높임.
  • 태그: 조직구조, 성능향상

  • 🔧 [해결] preemptive-compaction으로 프롬프트 비용 절감

  • 프롬프트 총량과 호출 수가 큰 상황에서 preemptive-compaction 훅을 도입해 전송량을 줄이고 LLM 호출 비용/지연을 관리함.
  • 태그: 비용절감, 프롬프트엔지니어링

  • 📚 [교훈] 초기 문서 확인 없이 단정하면 정정 필요

  • 08:14에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공식 문서에서 공개 표기를 확인해 정정함 — 중요한 사실은 문서 소스 확인 후 기록해야 함.
  • 태그: 검증, 운영절차

  • 💡 [발견] 모델별 레이턴시와 호출 전략 연계 필요

  • 모델별로 평균 레이턴시가 크게 다름(예: github-copilot gpt-5-mini 긴 레이턴시 vs claude-sonnet 낮은 레이턴시) — 작업 성격에 맞춰 모델을 할당하면 전반 성능 최적화 가능.
  • 태그: 성능관측, 모델배치

  • 🔄 [개선] 자동화 스크립트 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트 개발과 동시에 recovery_collector 유닛/통합 테스트를 작성하여 자동화 신뢰도를 높이고 회귀를 방지함.
  • 태그: 테스트, 자동화

2026-03-19

  • 🔧 [해결] 대규모 도입 대신 체리픽으로 핵심만 적용
  • OMC 전체 도입은 도메인 불일치로 불필요하다고 판단하고, 필요한 기능 3가지만 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 구현하여 비용과 복잡도를 줄임.
  • 태그: 체리픽, 범위절제, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단·분석·빠른 실행 등 역할에 따라 모델 라우팅(예: Opus=심층, Sonnet=분석·디버깅, Haiku=빠른 실행)을 적용해 각 모델의 강점을 살림.
  • 태그: 모델라우팅, 역할기반, 성능최적화

  • 💡 [발견] 모델별 레이턴시와 용도는 상관관계가 있음

  • 로그에서 cliproxy/claude-sonnet-4-6은 평균 레이턴시가 짧고 호출 수가 많아 분석·디버깅 용도로 효율적이었고, github-copilot/gpt-5-mini는 레이턴시가 길어 심층 호출에 적합함.
  • 태그: 성능관찰, 용도매칭

  • 🔄 [개선] 로컬 툴의 모델 오버라이드 지원을 문서화 및 활용

  • Codex CLI의 -m/--model 및 config.toml의 model 키로 모델 변경 가능함을 확인하고 이를 운영 절차에 반영해 모델 전환 시 혼선 최소화.
  • 태그: 운영절차, 문서화, 툴설정

  • 🔧 [해결] 복구 리포트 자동화 및 테스트로 회복력 강화

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성하여 실패 발생 시 수집·보고·검증 루프를 자동화함.
  • 태그: 자동화, 테스트, 회복력

  • 📚 [교훈] 공식 문서 확인을 즉시 재검증하라

  • 08:14에 gpt-5.4 mini 공개 확인 불가라고 기록했다가 08:16에 공식 문서에서 공개 표기를 확인·정정함. 외부 정보는 즉시 재확인·기록해야 혼선 방지된다.
  • 태그: 검증, 정정절차, 정보신뢰성

  • 💡 [발견] LLM 호출 통계는 운영 결정을 알리는 지표

  • 성공률, 호출수, 프롬프트/응답 총량, 에러 수 같은 지표를 통해 모델 안정성·사용패턴을 파악하고 운영·확장(에이전트 수 증가) 판단 근거로 사용함.
  • 태그: 운영지표, 모니터링

  • 🔄 [개선] 에이전트 확장은 기능별로 세분화하여 적용

  • 기존 8개에서 12개로 에이전트를 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 분화해 책임을 명확히 하고 확장에 따른 관리 비용을 제어함.
  • 태그: 에이전트관리, 역할분화, 확장전략

2026-03-19

  • 🔧 [해결] 문제 특화만 체리픽해서 빠르게 적용
  • OMC 전체 도입이 도메인에 맞지 않을 때 모든 기능을 쓰려 하지 않고, 코드 개발에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 적용해 비용과 복잡도를 줄였다.
  • 태그: 체리픽, 적용전략, 비용절감

  • 🔧 [해결] 모델 역할을 명확히 나눠 라우팅 적용

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)으로 모델을 3단계로 분리해 각 모델의 강점에 맞춰 작업을 배치함으로써 처리 효율과 응답 특성 최적화.
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • ⚖️ [판단] 전체 도입 vs 선택적 도입 — 도메인 적합성으로 결정

  • 새 솔루션(OMC)을 전사적으로 도입할지 판단할 때 '도메인 적합성'을 기준으로 삼아, 전문성이 맞지 않으면 전체 도입을 하지 않고 필요한 부분만 선택적으로 도입한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시 편차가 작업 배치에 영향

  • 세션 통계에서 모델별 평균 레이턴시 차이(예: github-copilot 높은 레이턴시, sonnet 낮은 레이턴시)가 관찰되어 '빠른 응답' 작업은 낮은 레이턴시 모델로, 시간이 많이 필요한 판단은 높은 레이턴시 모델로 배치하는 근거가 된다.
  • 태그: 관찰, 성능데이터, 작업배치

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 원래 에이전트 8개에서 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 책임을 쪼개어 각 에이전트가 더 좁은 책임을 갖도록 해 병렬성과 유지보수성을 개선했다.
  • 태그: 아키텍처개선, 에이전트운영, 책임분리

  • 🔄 [개선] preemptive-compaction 훅으로 프롬프트 비용 제어

  • 프롬프트 총량과 응답 총량이 큰 상황에서 preemptive-compaction 훅을 도입해 전송되는 프롬프트를 사전에 압축/정리함으로써 호출 비용과 전달량을 줄이려는 워크플로우 개선.
  • 태그: 비용관리, 프롬프트최적화

  • 📚 [교훈] 공식 문서 확인은 반복 검증 필요

  • 초기에 'gpt-5.4 mini 공개 확인 불가'로 기록됐다가 곧바로 '공식 문서에 공개 표기 확인'으로 정정됨. 중요한 외부 사실은 초기 확인 이후에도 재검증 프로세스를 둬야 함.
  • 태그: 검증절차, 정보정정

  • 📚 [교훈] 모든 작업은 통계로 되돌아가서 최적화 포인트를 찾는다

  • LLM 호출 통계(성공률, 프롬프트량, 레이턴시)를 주기적으로 모니터링해 문제 구간(에러, 고비용 모델 등)을 식별하고, 그에 따라 모델 라우팅·체리픽·훅 도입 등 개선 조치를 취한 것이 반복 가능한 패턴임.
  • 태그: 모니터링, 데이터드리븐, 운영개선

2026-03-19

  • 🔧 [해결] 특정 기능 전체 도입 대신 체리픽으로 우선 적용
  • OMC 전체 도입이 도메인에 맞지 않을 때 전체를 적용하지 않고, 핵심 가치가 예상되는 3가지 기능(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 빠르게 구현해 검증한다.
  • 태그: 점진적도입, 리스크절감

  • 🔧 [해결] 모델별 역할 분리로 작업 효율화

  • 작업 성격에 따라 모델 라우팅(예: Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)을 도입해 각 모델에 적합한 요청을 보내 응답 품질과 레이턴시를 최적화한다.
  • 태그: 모델라우팅, 성능최적화

  • ⚖️ [판단] 전체 대입 vs 체리픽 판단 기준: 도메인 적합성

  • 새 프레임워크나 방식 도입 시 '도메인 적합성'을 우선 평가하여 전체 도입은 보류하고, 도메인에 맞는 핵심만 선택해 적용할지 결정한다.
  • 태그: 의사결정기준, 도메인검증

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI는 -m/--model 옵션과 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인하여 로컬 환경에서 모델 전환이 가능함을 발견했다.
  • 태그: 도구역량, 환경설정

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트 수를 늘려(8→12) 역할을 명확히 분리(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)함으로써 책임 경계와 전문성을 높였다.
  • 태그: 조직구조, 작업분리

  • 🔄 [개선] 프롬프트/호출 통계 모니터링으로 안정성 관리

  • 총 호출/성공률/프롬프트·응답 총량/에러 수와 모델별 호출·레이턴시를 지속 집계해 문제 모델이나 오류를 빠르게 식별하고 대응한다.
  • 태그: 관찰가능성, 운영지표

  • 📚 [교훈] 초기 오정보고 → 즉시 정정의 중요성

  • gpt-5.4-mini 공개 여부에 대해 초기에는 '확인 불가'로 기록했다가 곧 정정해 공개 표기를 확인함. 불확실한 정보는 빠르게 확인하고 필요한 경우 정정 로그를 남겨 혼선을 줄여야 한다.
  • 태그: 커뮤니케이션, 정정절차

  • 🔧 [해결] 복구 리포트 자동화 → 테스트로 신뢰성 확보

  • recovery 리포트 자동화 스크립트를 작성하고 이어서 recovery_collector에 대한 유닛/통합 테스트를 작성해 자동화 결과의 신뢰성을 검증하는 워크플로우를 적용했다.
  • 태그: 자동화, 테스트

  • 💡 [발견] 전쟁·지정학 리스크가 섹터별 주가에 직접 연결됨

  • 대화에서 전쟁 관련 이슈가 방산·에너지·금·사이버보안·해운·비료 등 섹터별로 즉각적 수혜·급등을 일으킨다는 관찰이 나왔고, 특정 공급 차질(예: 황 차질)이 관련 섹터에 연쇄적 영향을 줌을 확인했다.
  • 태그: 도메인인사이트, 연관성

  • 📚 [교훈] 작업 보고는 짧고 검증 가능한 사실 중심으로

  • 세션 로그에 완료 작업·의사결정·수정 파일·통계가 정리되어 있음. 앞으로도 보고는 '사실→판단→행동' 순으로 간결하게 남겨 추후 추적과 재현을 쉽게 해야 한다.
  • 태그: 보고문화, 문서화

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 적용
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 전면 도입 대신 '핵심 기능 3가지만 체리픽'해 적용한다(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 비용·리스크를 줄이며 가치가 큰 부분만 도입하는 방식.
  • 태그: 도입전략, 리스크저감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할·성능 기준으로 분할

  • 에이전트·모델을 역할(심층 판단·분석·빠른 실행)과 성능 요구(레이턴시·정확성) 기준으로 3단계로 라우팅(Opus/ Sonnet/ Haiku). 작업 특성에 맞춰 모델을 배치해 효율과 품질 최적화.
  • 태그: 모델선택, 라우팅, 성능기준

  • 💡 [발견] 로컬 Codex는 모델 오버라이드를 지원함

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인하여 로컬 환경에서 모델 전환이 가능함을 확인.
  • 태그: 도구능력, 환경설정

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화해 추가

  • 기존 8개 에이전트를 12개로 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 분명히 나눔으로써 책임 분리와 심층 진단 역량을 강화함.
  • 태그: 조직구조, 역할분리, 확장전략

  • 🔧 [해결] 복구 리포트 자동화 → 통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector에 대한 유닛/통합 테스트를 함께 작성하여 자동화의 신뢰성을 확보하는 워크플로우.
  • 태그: 자동화, 테스트, 신뢰성

  • 💡 [발견] 모델별 호출·성공률·레이턴시 모니터링으로 병목 식별

  • 세션별 모델 호출 통계를 수집(호출수/성공률/평균 레이턴시)해 특정 모델의 지연이나 실패 패턴을 빠르게 식별하고 라우팅·대체 전략을 설계할 수 있음.
  • 태그: 관측가능성, 모니터링, 성능분석

  • 📚 [교훈] 공식 문서 확인은 반복 검증 필요

  • 08:15에 공개 불가로 판단했다가 08:16에 정정해 공개 표기를 확인한 사례: 외부 정보(공개 여부)는 빠르게 변할 수 있으니 한 번의 확인으로 끝내지 말고 공식 소스 재확인 및 변경 로그 확인 절차 필요.
  • 태그: 정보검증, 절차개선, 운영리스크

  • ⚖️ [판단] 섹터 추천은 사건(뉴스)→수혜 메커니즘→대표종목 순으로 구성

  • 사용자 질문에 대해 섹터 추천을 할 때 사건(전쟁 등)으로 인한 수요 변화를 먼저 파악하고, 그 메커니즘(예: 무기 증산→방산수요 증가)과 대표 종목을 연결해 설명하면 수용도가 높음.
  • 태그: 리서치, 의사소통, 투자분석

2026-03-19

  • ⚖️ [판단] 도구 전체 도입보다 필요한 기능만 체리픽
  • OMC 같은 큰 시스템은 도메인 적합성 검토 후 전체 도입을 피하고, 도메인에 맞는 핵심 기능 3가지만 선별해 적용함으로써 개발 부담과 오버헤드를 줄임.
  • 태그: 도입전략, 범위결정, 리스크관리

  • 🔧 [해결] 모델별 역할 분리 → 작업 효율화

  • 작업 특성에 따라 모델/에이전트를 분리(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행). 각 모델에 맞는 책임을 명확히 하여 레이턴시·비용·정확도 균형을 맞춤.
  • 태그: 아키텍처, 모델라우팅, 성능최적화

  • 🔧 [해결] 프롬프트/출력 부담 줄이기 → preemptive-compaction

  • 프롬프트 총량이 클 때 사전 압축(전처리) 스크립트를 넣어 전송량을 줄이고 응답 품질과 처리 비용을 개선함(예: preemptive-compaction 훅 추가).
  • 태그: 비용절감, 프롬프트엔지니어링, 자동화

  • 🔄 [개선] 에이전트 세분화로 확장성 확보

  • 단일 에이전트 대신 역할별 에이전트(analyst, report-writer, pipeline-debugger-deep 등)로 늘려 책임을 분리하고 병렬 작업·유지보수를 용이하게 함.
  • 태그: 조직화, 확장성, 모듈화

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI는 -m/--model 플래그와 config.toml의 model 키를 통해 모델 변경을 지원하므로 로컬 환경에서 빠른 모델 전환이 가능함.
  • 태그: 도구특성, 운영정보

  • 📚 [교훈] 공식 문서 확인의 중요성 — 정정 발생

  • 초기에 gpt-5.4-mini 공개 여부를 확인하지 않고 판단했다가 공식 문서 확인 후 정정함. 핵심 결정/공지는 항상 원문(공식 문서)을 먼저 검증해야 함.
  • 태그: 검증절차, 정보출처, 운영실수

  • 🔧 [해결] 자동 리커버리 리포트 및 테스트 추가

  • recovery 관련 스크립트와 recovery_collector 유닛/통합 테스트를 만들어 장애 검출→리포트→검증 흐름을 자동화하여 복구 신뢰도를 높임.
  • 태그: 운영자동화, 테스트, 관측성

  • ⚖️ [판단] 모델 선택 시 레이턴시·성공률·호출비중을 함께 고려

  • 모델별 평균 레이턴시와 성공률, 호출 수 통계를 보고 작업 유형에 맞게 모델을 배분(예: 호출이 많고 빠른 응답이 필요한 경우 레이턴시 낮은 모델 우선).
  • 태그: 성능지표, 모델선택, 운영정책

2026-03-19

  • 🔧 [해결] 큰 기능 도입 대신 체리픽으로 핵심만 먼저 적용
  • OMC 전체 도입은 도메인 부적합으로 판단하여, 전체 도입 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 3가지를 선별 적용해 리스크와 작업량을 줄임.
  • 태그: 변경관리, 리스크감소, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 3단계 모델 라우팅을 도입: Opus는 심층 판단(2), Sonnet은 분석·디버깅(4), Haiku는 빠른 실행(6) 역할로 분리해 각 모델의 강점을 업무 역할에 맞춤 배치함.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 모델별 레이턴시·호출 특성 차이가 운영에 영향

  • 로그에서 cliproxy/claude-sonnet-4-6의 평균 레이턴시가 낮고 호출 수가 많아 빠른 분석 작업에 적합하며, github-copilot/gpt-5-mini는 호출 수가 적고 레이턴시가 높아 심층 작업용으로 적합하다는 사실을 확인.
  • 태그: 관찰, 성능분석

  • 🔄 [개선] 에이전트 스케일링으로 역할 분담 강화

  • 기존 에이전트 수를 8→12로 확장해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임과 기능을 더 세분화하여 병렬 처리와 전문성을 향상시킴.
  • 태그: 조직, 워크플로우

  • 🔧 [해결] 모델 공개 정보 불확실성은 로컬 검증으로 보완

  • 공식 문서에서 모델 공개 여부가 불명확할 때 로컬 Codex의 모델 오버라이드 옵션(-m/--model, config.toml)을 확인해 실제 사용 가능 여부를 검증함.
  • 태그: 검증, 운영절차

  • 📚 [교훈] 초기 판단 정정 필요성 — 문서 재확인으로 오류 수정

  • 08:15에 gpt-5.4 mini 공개 불확인으로 기록했으나 08:16에 공식 문서에서 공개 표기 확인되어 정정함. 실시간 문서 재확인과 변경 로그 기록 중요성을 학습.
  • 태그: 품질관리, 문서화

  • 💡 [발견] LLM 호출 통계는 운영 안정성과 병목을 보여줌

  • 세션별 총 호출·성공률·프롬프트·응답량·에러 수 집계로 운영 안정성(성공률, 에러)과 비용(프롬프트/응답량)을 추적할 수 있음을 확인.
  • 태그: 모니터링, 측정

  • 🔄 [개선] 복구 리포트·테스트 자동화로 신뢰도 향상

  • recovery 리포트 자동화 스크립트 작성 및 recovery_collector 유닛/통합 테스트를 도입해 장애 대응과 회복 절차의 신뢰도를 높이는 작업을 진행함.
  • 태그: 자동화, 테스트

  • 🔧 [해결] 도메인 불일치시 전체 도입보다 도메인 적합 기능만 선택

  • OMC가 '코드 개발' 도메인과 맞지 않아 전체 도입을 포기하고 코드 개발에 적합한 일부 기능만 체리픽해 적용함으로써 자원 낭비를 줄이고 효용을 유지함.
  • 태그: 전략, 도메인적합성

  • 📚 [교훈] 응답 통계와 모델별 실패 패턴을 빠르게 추적하라

  • 일부 모델(gpt-5-mini, qwen2.5, openai-codex/gpt-5.4)이 호출 대비 0% 성공률을 보인 세션이 있어, 실패 모델은 즉시 원인 분석(인증·호환성·네트워크)을 수행해야 함.
  • 태그: 운영모니터링, 사후분석

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 부분 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 핵심 유용 기능 3가지만 선택적으로 체리픽(cherry-pick)하여 구현(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 전체 교체 대신 부분 적용으로 비용과 리스크를 줄임.
  • 태그: 체리픽, 점진적도입, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 모델을 역할(심층 판단 / 분석·디버깅 / 빠른 실행)로 라우팅하여 각 모델의 강점에 맞게 작업을 배정함(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행). 성능·지연·목적을 기준으로 선택.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 오버라이드를 지원함을 확인 — 즉, 문서에 공개 여부와 별개로 로컬 설정으로 실험 가능.
  • 태그: 도구기능, 설정관리

  • 🔧 [해결] 복구 리포트 자동화 → 테스트 병행

  • recovery 리포트 자동화 스크립트를 만들고 곧바로 유닛/통합 테스트를 작성하여 자동화 신뢰성을 확보(자동화 개발과 테스트를 병행).
  • 태그: 자동화, 테스트주도

  • 💡 [발견] 모델별 레이턴시·성공률 차이가 작업 배분에 영향

  • 로그에서 모델별 호출·성공률·평균 레이턴시를 수집해 라우팅과 병렬화 정책에 반영함(지연이 짧은 모델에 반복적 요청을 몰아서 처리 등).
  • 태그: 관찰, 메트릭기반

  • 🔄 [개선] 대규모 도입 대신 점진적 파일·훅 추가

  • 새 기능은 관련 에이전트 파일과 훅(예: ~/.claude/agents/*.md, scripts/, hooks/)만 추가해 단계적으로 확장 — 한 번에 대대적 변경하지 않고 추적 가능하게 적용.
  • 태그: 배포전략, 점진적배포

  • 📚 [교훈] 문서 확인은 정정 가능성 염두에 두기

  • 08:14에 공개 확인 불가로 기록했다가 08:16에 정정하여 공식 문서에서 공개 표기가 있음을 확인함 — 초기 판정은 빠르게 메모하되, 공개 자료 재검증 절차를 명시적으로 둬야 함.
  • 태그: 검증절차, 문서신뢰성

  • ⚖️ [판단] 에이전트 확장은 필요성·역할에 따라 우선순위

  • 에이전트 수 확장은 기능·역할(analyst, report-writer 등)을 기준으로 필요한 기능을 추가하여 8→12로 확장함 — 무작정 확장하지 않고 목적 중심으로 늘림.
  • 태그: 확장전략, 목적중심

  • 🔧 [해결] 전문성 불일치 시 전체 도입 거부

  • OMC가 '코드 개발 전문'과 도메인 불일치할 경우 전체 도입을 피하고, 목적에 부합하는 소수 기능만 채택해 낭비를 방지함.
  • 태그: 거부기준, 도메인적합성

  • 💡 [발견] 전쟁·지정학 이슈가 섹터 성과에 직결

  • 대화에서 전쟁 관련 뉴스(예: 생산증강, 가스전 피격)가 방산·에너지·비료·금 등 섹터 수익률 급등과 직접 연결됨 — 뉴스→섹터맵핑이 투자 추천 근거로 유효함.
  • 태그: 도메인발견, 뉴스영향

2026-03-19

  • 🔧 [해결] 복잡한 기능 전체 도입 대신 핵심만 체리픽
  • OMC 같은 큰 시스템을 처음부터 전면 도입하지 않고 도메인 적합성을 판단해 필요한 기능 3개만 선별(cherry-pick)해 단계적으로 적용함으로써 개발 비용과 위험을 낮춘다.
  • 태그: 점진적도입, 위험관리

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 결정

  • 심층 판단, 분석·디버깅, 빠른 실행 등 역할을 기준으로 모델(또는 에이전트)을 세 그룹(Opus/Sonnet/Haiku)으로 나눠 라우팅하면 각 작업 특성에 맞는 성능/지연을 최적화할 수 있다.
  • 태그: 모델선택, 역할기반라우팅

  • 💡 [발견] 모델별 레이턴시·성공률 분해로 운영 인사이트 확보

  • 모델 호출 통계를 모델별 호출수·성공률·평균 레이턴시로 분해하면 병목 모델과 안정성 문제를 빠르게 식별해 라우팅·대체정책을 세울 수 있다.
  • 태그: 모니터링, 운영지표

  • 🔄 [개선] 에이전트 확장은 기능 단위로 추가

  • 필요 기능(analyst, report-writer, pipeline-debugger 등)을 개별 에이전트로 늘려 역할을 명확히 하고 병렬 처리를 통해 처리량을 높임 — 기존 몽땅한 에이전트에서 역할별 세분화로 전환.
  • 태그: 아키텍처분리, 스케일링

  • 🔧 [해결] preemptive-compaction으로 프롬프트·응답 비용 제어

  • 프롬프트와 응답의 크기·비용을 사전에 압축(preemptive compaction)하는 훅을 도입해 LLM 호출 부담을 줄이고 전체 비용과 레이턴시를 낮춘다.
  • 태그: 비용최적화, 프롬프트엔지니어링

  • 📚 [교훈] 공식 문서 vs 로컬 확인은 빠르게 정정할 수 있게 검증 루틴 필요

  • 초기에는 gpt-5.4-mini 공개 여부가 불확실했으나 로컬·공식 문서 재검증으로 정정됨. 외부 출시·버전 정보는 빠르게 2차 확인해 의사결정 로그를 업데이트해야 한다.
  • 태그: 검증절차, 정보정정

  • 💡 [발견] 도메인·전문성 불일치 시 전체 도입보다 전문 파트만 채용

  • OMC가 코드 개발 도메인에 적합하지 않다는 판단이 나와 전체 적용을 배제하고 필요한 기능만 뽑아 적용한 사례 — 도메인 적합성은 도입범위 결정의 핵심 변수다.
  • 태그: 도메인적합성, 도입결정

  • 🔄 [개선] 자동화 스크립트+유닛/통합 테스트 병행 작성

  • recovery 리포트 자동화 스크립트를 만들면서 recovery_collector의 유닛·통합 테스트도 함께 작성해 자동화 신뢰성을 높이는 워크플로우로 개선함.
  • 태그: 테스트자동화, 신뢰성

  • ⚖️ [판단] 에러·성공률은 전체 호출 집계와 모델별로 함께 봐야 함

  • 총 호출·성공률과 모델별 성공률(예: 일부 모델 0%로 표기)을 함께 관찰하면 문제 원인이 모델 고유인지 환경(프롬프트·네트워크)인지 구분하기 쉽다.
  • 태그: 원인분석, 지표해석

  • 📚 [교훈] 프롬프트 총량·응답 총량 로그는 비용·성능 트레이드오프로 해석

  • 프롬프트 문자량과 응답 문자량을 기록해 두면 어떤 작업이 토큰·시간 비용을 많이 쓰는지 파악되어 최적화 우선순위를 정하기 좋다.
  • 태그: 비용분석, 운영최적화

2026-03-19

  • 🔧 [해결] 도메인 불일치면 전체 도입 대신 핵심 기능만 체리픽
  • OMC를 전체 도입하는 대신 도메인 부적합을 이유로 3가지 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 도입하여 비용·복잡도 감소와 실행 가능성 확보
  • 태그: 체리픽, 도메인 적합성, 단계적 도입

  • 🔧 [해결] 모델 특성에 따라 에이전트 역할 분리

  • 모델 라우팅을 통해 Opus는 심층 판단, Sonnet은 분석·디버깅, Haiku는 빠른 실행에 배치하여 각 모델의 강점을 살리고 레이턴시·성능 트레이드오프를 관리함
  • 태그: 모델 라우팅, 역할 분담, 성능 최적화

  • ⚖️ [판단] A vs B 비교는 도메인 적합성으로 결정

  • 새 기술(A) 전체 도입 vs 기존 방식(B) 유지 결정 시 '해당 팀/코드 도메인과의 적합성'을 우선 기준으로 삼아 부분 도입 또는 보류 판단
  • 태그: 의사결정 기준, 도메인 적합성

  • 💡 [발견] 작은 변화로도 에이전트 확장성 확보 가능

  • 에이전트 수를 8→12로 확장하면서 역할을 세분화(analyst, report-writer 등)하니 기능 분산과 병렬 처리 이점이 즉시 나타남 — 수평 확장으로 복잡도 관리됨
  • 태그: 스케일링, 아키텍처, 에이전트

  • 🔄 [개선] 검증-정정 루프를 빠르게 돌려 사실을 확정

  • 08:15에 비공개 판단을 내렸으나 곧 문서 재검증 후(08:16) 정정함 — 빠른 피드백 루프를 표준화하여 잘못된 정보의 전파를 줄임
  • 태그: 검증, 정정, 워크플로우 개선

  • 📚 [교훈] 공식 출처 확인을 생략하면 오류 발생

  • gpt-5.4-mini 공개 여부를 일시적으로 확인 불가라 기록했다가 곧 공식 문서에서 공개 표기 확인으로 정정 — 공식 문서 우선 확인하는 절차 필요
  • 태그: 출처 검증, 실수와 교훈

  • 🔧 [해결] 자동화 + 테스트 병행으로 리커버리 신뢰성 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화 신뢰도를 높이고 회복 절차 검증을 시스템화함
  • 태그: 자동화, 테스트, recovery

  • 💡 [발견] LLM 호출 모니터링으로 문제 조기 탐지 가능

  • 호출 수, 성공률, 프롬프트·응답 총량, 모델별 레이턴시/성공률을 정기 집계해 이상(에러, 특정 모델 실패)을 빠르게 식별하고 대응함
  • 태그: 관찰성, 모니터링, 운영지표

  • ⚖️ [판단] 부분 실패(모델 0% 성공)는 비활성화/추적 우선

  • 특정 모델(gpt-5-mini, qwen2.5 등) 호출에서 0% 성공이 관찰되면 즉시 사용 억제 또는 원인 조사 우선으로 판단해 전체 워크플로우 영향 최소화
  • 태그: 장애대응, 리스크 관리

  • 📚 [교훈] 체리픽 방식은 빠른 가치 제공에 유리

  • 전체 시스템 도입보다 핵심 3가지만 선정해 적용하니 개발 자원과 도메인 적합성을 맞추면서 빠르게 결과를 만들 수 있었음 — 향후 신기술 도입 시 우선순위 선정 권장
  • 태그: 교훈, 우선순위, 빠른가치

2026-03-19

  • 🔧 [해결] 문제별 경량 체리픽
  • OMC 전체 도입이 불필요할 때는 전체 적용 대신 도메인에 맞는 핵심 항목만 선별(체리픽)해 구현한다 — 이번에는 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 3가지만 적용하여 비용과 복잡도 절감.
  • 태그: 의사결정, 범위축소

  • 🔧 [해결] 모델 역할별 라우팅

  • 작업 특성에 따라 모델을 역할별로 분리해 라우팅한다 — 예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행으로 나누어 호출 효율과 응답 특성 최적화.
  • 태그: 아키텍처, 모델라우팅

  • ⚖️ [판단] 전체 도입 vs 선별 도입 판단 기준

  • 새 프레임워크를 전체 도입할지 결정할 때는 팀의 도메인 적합성(전문성)과 개발 비용을 기준으로 판단한다 — 도메인 미일치이면 핵심 기능만 체리픽.
  • 태그: 의사결정, 비용효율

  • 💡 [발견] 모델별 레이턴시 차이와 역할 적합성

  • 같은 작업군에서도 모델별 평균 레이턴시가 크게 다르므로(예: gpt-5-mini vs sonnet) 작업 성격에 맞춰 느린 모델은 심층 판단·느린 작업에, 빠른 모델은 경량 반복 작업에 배치하면 전체 처리 효율이 올라감.
  • 태그: 관찰, 성능

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 필요에 따라 단일 에이전트 집약 대신 에이전트를 늘려(8→12) 역할을 세분화하여 책임을 분리하면 유지보수·디버깅이 쉬워지고 특정 유닛 테스트·리포트 자동화가 독립 실행 가능해짐.
  • 태그: 워크플로우, 운영

  • 🔧 [해결] 프롬프트/호출 통계 기반 대응

  • LLM 호출 통계(총 호출, 성공률, 프롬프트·응답량, 에러 수)를 주기적으로 모니터링해 성능 이슈나 모델 교체·오버라이드 필요성을 판단하고, 문제가 있으면 모델 오버라이드나 로컬 설정(-m/--model, config.toml)을 사용해 조정한다.
  • 태그: 모니터링, 운영

  • 📚 [교훈] 정보 정정 프로세스 필요성

  • 동일 일자에 문서화된 정보가 정정되는 경우(초기 확인 불가 → 정정 발견)에는 정정 로그를 명확히 남기고 변경 시점을 기록해 혼선과 중복 호출을 줄여야 함.
  • 태그: 교훈, 문서관리

  • 💡 [발견] 도메인별 대응(금융: 섹터맵 활용)

  • 사용자 문의(투자 종목 추천)에 대해 섹터별 수익률·대표 종목 맵을 제공하면 빠르게 신뢰성 있는 응답을 줄 수 있음 — 방산/에너지/금/사이버보안/해운/비료 등 섹터 맵 형태가 효과적이었다.
  • 태그: 상품화, 응답패턴

  • 🔄 [개선] 자동화 스크립트 + 유닛 테스트 병행

  • 리포트·리커버리 관련 자동화 스크립트를 작성할 때 곧바로 유닛·통합 테스트(recovery_collector 테스트)를 병행하면 배포 후 회복 신뢰도와 품질이 개선된다.
  • 태그: 테스트, 자동화

  • 📚 [교훈] 모델 실패 발생 로그 보존의 중요성

  • 일부 모델 호출(예: gpt-5-mini, qwen2.5, openai-codex)에 0% 성공이나 에러가 발생했을 때 원인 분석을 위해 호출별 로그와 컨텍스트를 보존해야 재현과 대응이 쉬워진다.
  • 태그: 교훈, 디버깅

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 체리픽으로 핵심만 도입
  • 전체 OMC 방식 도입이 적절치 않다고 판단되면 전부 도입하지 않고, 도메인에 맞는 핵심 3가지를 골라(cherry-pick) 우선 적용한다 — 낮은 도입 비용으로 가치 확인 후 확장.
  • 태그: 도입전략, 우선순위, 리스크관리

  • 🔄 [개선] 모델별 역할 분리로 라우팅 단순화

  • 모델을 역할(심층 판단/분석·디버깅/빠른 실행)로 명확히 나누고 각 역할에 맞는 에이전트를 배치하여 요청 라우팅과 책임을 단순화(예: Opus/Sonnet/Haiku 분리).
  • 태그: 아키텍처, 모델라우팅, 운영효율

  • 🔄 [개선] 사전압축(preemptive-compaction) 훅으로 프롬프트 비용 제어

  • 프롬프트 총량이 커질 때 응답/프롬프트 비용을 줄이기 위해 preemptive-compaction 스크립트나 훅을 도입해 입력을 사전에 압축·정리한다 — 호출 수·토큰 사용 최적화 목적.
  • 태그: 비용절감, 프롬프트엔지니어링, 자동화

  • ⚖️ [판단] 문서상 근거 우선 확인 → 로컬 기능 확인

  • 모델 공개 여부 같은 외부 사실은 공식 문서로 확인하고(공식 문서 우선), 도구의 로컬 지원 여부(예: Codex CLI의 -m/--model 지원)는 로컬로 검증해 결론을 정정하거나 확정한다.
  • 태그: 의사결정기준, 검증절차

  • 💡 [발견] 모델별 레이턴시·성공률 편차 관찰

  • 같은 작업에서 모델별 호출 수·성공률·레이턴시가 크게 다름(github-copilot 높은 레이턴시, sonnet 낮은 레이턴시 등) — 모델 선택은 성능(응답속도)과 역할(정밀도) 균형으로 결정해야 함.
  • 태그: 관찰, 모델성능, 선택기준

  • 🔧 [해결] 기능 확장 시 에이전트 증설로 역할 분담

  • 기능을 늘릴 때 단일 에이전트 확장보다 새 역할별 에이전트를 추가(8→12)해 책임을 분리하고 병렬 처리·유지보수를 용이하게 함.
  • 태그: 스케일링, 운영모형

  • 📚 [교훈] 초기 불확실 정보는 정정 로그로 추적

  • 08:15에 공개 여부 미확인으로 기록했다가 08:16에 정정한 사례처럼, 외부 정보가 변하거나 확인되면 즉시 의사결정 로그에 정정 내용을 남겨 추적 가능하게 해야 함.
  • 태그: 투명성, 로그관리, 운영절차

  • 🔧 [해결] 도메인 문의(사용자 불만)는 섹터 맵으로 구조화된 답변 제공

  • 사용자 질문(예: 투자 종목 누락)은 섹터별 핵심 포인트와 대표 종목 표로 정리해 빠르게 보완 설명 — 누락에 대한 사과 + 전체 맵 제공으로 신뢰 회복.
  • 태그: 고객응대, 정보구성, 문서화

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽 접근
  • 전체 OMC 도입이 적절치 않다고 판단될 때, 전체 도입 대신 도메인에 맞는 소수의 기능(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용한다. 비용·복잡도를 낮추고 가치 있는 기능부터 빠르게 가져오는 방식이다.
  • 태그: 도입전략, 리스크관리

  • ⚖️ [판단] 모델 라우팅 기준: 역할별 특화

  • 모델 선택을 역할(심층 판단 vs 분석·디버깅 vs 빠른 실행)로 구분해 라우팅한다. 예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행 — 요청 성격에 맞춘 모델 분배로 응답 품질과 레이턴시 균형을 맞춘다.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키로 모델 오버라이드를 지원한다는 사실을 확인함. 즉, 로컬 환경에서 런타임 모델 전환이 가능하다.
  • 태그: 툴링, 운영

  • 🔧 [해결] 복구 리포트 자동화 + 테스트 병행

  • recovery 리포트 자동화 스크립트를 만들고, 그에 대한 유닛/통합 테스트(recovery_collector 유닛/통합 테스트)를 즉시 작성하여 자동화 신뢰도를 확보한다. 자동화 → 테스트 순으로 안정성 확보.
  • 태그: 자동화, 테스트

  • 🔄 [개선] 에이전트 확장 시 역할 세분화

  • 단순 수 증가(8→12) 대신 새로운 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 추가해 기능을 세분화함으로써 각 에이전트의 책임을 명확히 하고 유지보수성을 높였다.
  • 태그: 운영개선, 조직설계

  • 💡 [발견] LLM 호출 통계로 병목·신뢰성 관찰

  • 모델별 호출 수, 성공률, 평균 레이턴시를 꾸준히 기록해 어떤 모델이 지연이 크고 어느 모델이 안정적인지 관찰함(예: cliproxy/claude-sonnet-4-6가 낮은 레이턴시). 이를 토대로 라우팅·스케일링 결정을 지원한다.
  • 태그: 관찰, 모니터링

  • 📚 [교훈] 초기 판단은 정정될 수 있음 — 빠른 재검증 필요

  • 08:15에 gpt-5.4-mini 공개 여부를 확인 불가로 기록했다가 08:16에 정정해 공개 표기를 확인함. 외부 문서 정보는 빠르게 재검증하고 기록을 업데이트해야 함(정정 로그 남기기).
  • 태그: 운영절차, 정보검증

  • 🔧 [해결] 전략적 체리픽으로 비즈니스 적합성 확보

  • OMC 같은 대형 도구가 도메인과 맞지 않을 때는 '전체 적용' 대신 '비즈니스 가치 높은 기능 3개만 선별 적용'하는 전략을 사용 — 개발 비용과 도메인 적합성 사이 균형을 맞춘다.
  • 태그: 전략, 우선순위

  • ⚖️ [판단] 응답 품질 vs 레이턴시 균형의 실무 기준

  • 심층 판단 작업에는 레이턴시가 높더라도 고품질 모델을, 단순/빈번 작업에는 빠른 모델을 배치하는 것이 효율적이라는 기준을 적용한다(작업 중요도에 따른 모델 트레이드오프).
  • 태그: 판단기준, 성능관리

  • 📚 [교훈] 자동화는 측정 지표와 함께 운영해야 신뢰성 확보

  • 자동화 스크립트를 도입할 때 호출 통계(성공률·에러수·프롬프트량 등)를 함께 모니터링하고, 에러 발생시 빠르게 원인 분석할 수 있는 지표 수집 체계를 마련해야 한다.
  • 태그: 자동화, 관측가능성

2026-03-19

  • 🔧 [해결] 체리픽으로 범위 축소해 빠르게 성과를 낸다
  • OMC 전체 도입 대신 도메인에 맞는 핵심 기능 3가지를 선택(cherry-pick)해 우선 구현함으로써 개발 비용과 리스크를 줄이고 즉각적인 가치 제공을 목표로 함.
  • 태그: 우선순위, 리스크관리

  • 🔄 [개선] 모델별 역할 분리로 워크로드 최적화

  • 모델 라우팅을 세분화(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)하여 각 모델의 강점을 살리고 호출 비용·지연을 관리함.
  • 태그: 아키텍처, 성능

  • 💡 [발견] 로컬 도구는 모델 오버라이드 지원

  • Codex CLI는 -m/--model 또는 config.toml의 model 키로 모델 변경을 지원하므로, 공식 문서 공개 시점과 무관하게 로컬 환경에서 모델 전환이 가능함.
  • 태그: 도구지원, 운영

  • 🔧 [해결] preemptive-compaction으로 리소스 관리

  • preemptive-compaction 훅을 추가해 세션/에이전트 상태를 선제적으로 정리·압축함으로써 장기 실행 중 리소스 누수를 막고 안정성을 높임.
  • 태그: 운영자동화, 자원관리

  • ⚖️ [판단] 전면 도입 vs 체리픽 — 도메인 적합성 기준으로 결정

  • 새 체계(OMC)를 전면 도입할지 여부는 해당 코드/도메인의 적합성으로 판단하고, 적합하지 않으면 핵심 기능만 선별 도입함.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 레이턴시 차이는 운영 전략에 영향

  • 서버별·모델별 평균 레이턴시가 크게 다르므로(예: github-copilot 지연 큼, sonnet 빠름) 지연 민감 작업은 낮지연 모델로 라우팅해야 함.
  • 태그: 관찰, 성능

  • 🔄 [개선] 에이전트 확장 시 역할별 분화로 책임 분배

  • 기존 에이전트(8개)에서 책임·기능을 세분화해 12개로 확장함으로써 각 에이전트가 전문화된 작업(analyst, report-writer, cron-doctor-deep 등)을 담당하도록 개선함.
  • 태그: 조직화, 스케일링

  • 📚 [교훈] 정보 확정 전 의사기록으로 정정 부담 발생

  • 08:15에 공개 불가로 기록했다가 08:16에 정정하면서 문서·로그에 중복/정정 발생 — 중요한 외부 사실은 확인 후 기록하거나 변경 이력을 명확히 남겨야 함.
  • 태그: 문서화, 운영절차

  • 🔧 [해결] 복구 리포트 자동화로 회복력 강화

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 도입해 장애 발생 시 자동으로 자료를 수집·보고하도록 함으로써 복구 속도와 품질을 높임.
  • 태그: 자동화, 신뢰성

  • 💡 [발견] 프롬프트·응답량 모니터링은 운영 지표가 된다

  • 프롬프트 총량, 응답 총량, 호출 수, 성공률 같은 메트릭을 정기적으로 수집해 모델 비용·성능·오류 추이를 파악할 수 있음.
  • 태그: 모니터링, 지표

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전체 도입 대신 핵심만 체리픽
  • OMC 전체 도입이 도메인에 맞지 않을 때 전체를 적용하지 않고 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 3가지만 선택적으로 구현해 문제를 해결했다. 범위 최소화로 개발 비용과 리스크를 줄임.
  • 태그: 체리픽, 범위관리, 리스크감소

  • ⚖️ [판단] 모델 라우팅은 '작업 성격' 기준으로 분리

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 작업 성격(심층성 vs 속도 vs 분석)에 따라 모델·에이전트를 라우팅해 적절한 모델을 선택했다. 성능(레이턴시)과 요구 정확도에 기반한 판단 기준.
  • 태그: 모델선택, 라우팅, 성격기반

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키를 통해 로컬에서 모델을 오버라이드할 수 있음이 확인되어, 문서상 공개 여부와 무관하게 로컬 테스트·전환이 가능하다는 사실을 발견.
  • 태그: 도구기능, 모델오버라이드

  • 🔄 [개선] 에이전트 기능을 역할별로 세분화

  • 기존 단일 또는 적은 수의 에이전트에서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등으로 에이전트를 8→12개로 확장해 역할을 명확히 분리함. 책임 분리로 확장성과 디버깅 용이성 향상.
  • 태그: 아키텍처, 역할분리, 확장성

  • 🔧 [해결] 사전 압축(preemptive-compaction)으로 처리 부담 경감

  • preemptive-compaction 훅을 도입해 세션/데이터를 미리 압축·정리함으로써 후속 처리·호출 부담을 낮추고 시스템 안정성을 개선했다.
  • 태그: 성능, 데이터관리, 운영

  • 🔄 [개선] 학습·패턴 추출을 자동화하는 스크립트 추가

  • session_learner.py 등 학습·패턴 추출 스크립트를 만들고 recovery 리포트 자동화와 유닛/통합 테스트를 병행해 반복 작업을 자동화하고 신뢰도를 높이는 워크플로우로 개선함.
  • 태그: 자동화, 테스트, 지속적개선

  • 📚 [교훈] 공식 문서 확인은 즉시 갱신될 수 있으니 이중 확인 필요

  • 08:14에 gpt-5.4 mini 공개 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기가 확인되어 정정했다. 외부 사실은 한 번 확인한 후에도 다시 확인하고 변경사항을 기록해야 함.
  • 태그: 검증, 문서확인, 정정절차

  • 🔧 [해결] 문제 발생 시 자동 수집·리포트 파이프라인 구성

  • recovery 리포트 자동화 스크립트와 recovery_collector의 유닛/통합 테스트를 작성해 문제 발생 시 데이터를 자동으로 모으고 리포트를 생성하도록 하여 대응 시간을 단축함.
  • 태그: 운영, 모니터링, 자동리포트

  • 💡 [발견] 모델별 호출·레이턴시·성공률 분석은 라우팅 개선 근거가 된다

  • 세션 로그에서 모델별 호출 수, 성공률, 평균 레이턴시를 수집해 특정 모델이 빠르거나 안정적인지를 확인했고, 이를 바탕으로 작업 유형에 맞춘 모델 라우팅(예: Sonnet은 빠른 응답)을 설계함.
  • 태그: 관찰, 메트릭기반, 모델운영

  • 📚 [교훈] 통계 수치만으로는 전반적 신뢰 판단을 하지 말 것

  • 총 호출·성공률·에러 수 같은 수치가 높아도 모델별 실패(0% 성공으로 기록된 항목)가 존재하므로, 수치 뒤의 세부(모델별 실패·레이턴시)를 반드시 확인해야 함.
  • 태그: 검증, 운영지표, 세부분석

2026-03-19

  • 🔧 [해결] 문제별 모델 분리로 책임 분할
  • 복합 LLM 파이프라인에서 기능별(심층판단/분석·디버깅/빠른실행)로 모델·에이전트를 분리해 각 역할에 맞는 성능·지연 특성을 활용함(예: Opus/Sonnet/Haiku 라우팅). 이렇게 하면 특정 작업에서 과도한 비용·지연을 줄이고 실패 격리 가능.
  • 태그: 아키텍처, 모델라우팅, 성능최적화

  • 🔧 [해결] 체리픽 방식으로 범위 축소 후 점진 도입

  • 전체 OMC 도입 대신 도메인 적합한 3가지 핵심 기능만 선택(cherry-pick)해 우선 구현하고 효과 검증 후 확장함으로써 시간·리스크를 절감함.
  • 태그: 프로젝트관리, 리스크관리, 점진도입

  • ⚖️ [판단] 도메인 적합성 기준으로 도입 여부 결정

  • 새 기법(OMC 등)을 적용할 때 '팀의 주된 전문성(코드 개발 vs 도메인 지식)'을 기준으로 전체 도입 대신 일부만 채택할지 판단함.
  • 태그: 의사결정기준, 도입전략

  • 💡 [발견] 모델별 호출·레이턴시 차이가 운영에 영향

  • 동일 워크로드에서 모델마다 호출 수·평균 레이턴시가 크게 달라 라우팅 설계가 전체 처리량·응답성에 직접적 영향을 줌(예: cliproxy/claude-sonnet-4-6이 낮은 레이턴시).
  • 태그: 관찰, 성능계측

  • 🔄 [개선] 프롬프트·응답량 모니터링으로 안정성 관리

  • 세션별 총 프롬프트·응답 문자수, 호출수, 성공률, 에러 수 등을 정기 집계해 모델 선택·프롬프트 길이·재시도 정책을 조정하도록 워크플로우에 포함함.
  • 태그: 모니터링, 운영지표, 안정성

  • 🔄 [개선] preemptive-compaction으로 자원 절감

  • 전처리 훅(preemptive-compaction) 스크립트를 도입해 프롬프트/컨텍스트를 사전에 압축·정리함으로써 호출당 비용과 레이턴시를 낮추는 작업 흐름을 추가함.
  • 태그: 전처리, 비용절감, 성능

  • 📚 [교훈] 정확성 확인 전 결론 표기 금지

  • 초기 로그에서 gpt-5.4 mini 공개 여부가 불확실했다가 정정된 사례처럼 외부 문서·공식 출처 확인 전 결론을 내리지 말고 변경 발생 시 정정 로그를 남겨야 함.
  • 태그: 검증절차, 문서신뢰성, 커뮤니케이션

  • 📚 [교훈] 작업 범위·파일 변경은 짧게 기록·추적

  • 세션에서 수정·생성 파일 목록과 완료 작업을 시간순으로 기록해 누가 무엇을 변경했는지 명확히 했음. 이는 회귀·검토 시 유용하므로 모든 작업에 적용할 것.
  • 태그: 운영절차, 추적가능성, 세션로그

2026-03-19

  • 🔧 [해결] 핵심만 체리픽해서 도입
  • 전체 OMC 도입은 도메인 불일치로 과도하므로, 관련성 높은 3가지를 선별해 부분 도입(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)으로 문제를 해결함.
  • 태그: 체리픽, 범위제한, 리스크절감

  • ⚖️ [판단] 도메인 적합성으로 도입 결정

  • 새 기법 도입 시 전체 적용 대신 코드 개발 전문성과의 적합성을 기준으로 불필요하면 부분 적용을 선택함(도메인 적합성 = 주요 판단 기준).
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 역할 분리의 효과

  • 3단계 모델 라우팅(Opus/심층 판단, Sonnet/분석·디버깅, Haiku/빠른 실행)을 통해 응답 특성과 레이턴시에 맞춘 역할 분담이 가능함을 확인함.
  • 태그: 모델라우팅, 성능최적화

  • 🔄 [개선] 모델 라우팅으로 확장성 확보

  • 기존 단일모델 처리 방식 → 모델별 특화 에이전트(심층/분석/빠른 실행)로 전환하여 호출수·레이턴시·성공률 관리를 개선함.
  • 태그: 워크플로우, 확장성

  • 📚 [교훈] 문서 근거 확인 후 정정 절차 필요

  • 08:15에 공개 확인 불가라 기록했다가 08:16에 공식 문서 확인으로 정정함 — 공개 여부 판단은 잠정표기 후 공식 소스 재확인(빠른 정정 기록) 프로세스를 둬야 함.
  • 태그: 검증절차, 정정로그

  • 🔧 [해결] 로컬 CLI 오버라이드로 모델 변경

  • Codex CLI의 -m/--model 및 config.toml model 키를 이용해 로컬에서 모델 오버라이드하여 배포·테스트 문제를 우회함.
  • 태그: 도구활용, 모델오버라이드

  • 💡 [발견] 운영지표로 안정성 판단

  • LLM 호출 통계(총 호출, 성공률, 프롬프트·응답량, 에러수, 모델별 레이턴시)를 통해 시스템 안정성·병목·비용을 관찰하고 의사결정 근거로 사용함.
  • 태그: 관측, 메트릭기반

  • 🔄 [개선] 복구 리포트 자동화 + 유닛 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 작성을 병행하여 복구 흐름의 신뢰성과 재현성을 높임.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 성공률·에러 지표의 세션별 모니터링 필요

  • 세션마다 모델별 성공률과 에러 수가 달라집니다(일부 모델 0% 성공률 관찰) → 배포·실험 시 모델별 별도 모니터링·격리 테스트 필요.
  • 태그: 모니터링, 실험설계

  • ⚖️ [판단] 빠른 실행 vs 심층 판단 선택 기준

  • 작업을 '빠른 실행'이 필요한지 '심층 판단'이 필요한지로 나누어 Haiku는 지연을 줄인 실행용, Opus는 심층 판단용으로 배치하는 기준을 채택함.
  • 태그: 의사결정, 우선순위

2026-03-19

  • 🔧 [해결] 필요한 기능만 체리픽해서 도입
  • 전체 OMC 도입은 도메인 불일치로 비효율적이라 판단하고, 핵심 3가지를 선별(cherry-pick)해 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 전체 도입 대신 부분 도입으로 비용·복잡도 절감.
  • 태그: 부분도입, 비용절감, 체리픽

  • 🔧 [해결] 모델 역할을 계층화해 라우팅

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 모델 라우팅을 설계해 각 모델에 맞는 작업을 배분함으로써 효율과 응답 속도 균형을 맞춤.
  • 태그: 모델라우팅, 역할분리, 효율성

  • ⚖️ [판단] 전체 도입 vs 부분 도입은 도메인 적합성으로 결정

  • 새 방법(예: OMC)을 전체 적용할지 검토할 때 '팀의 도메인 전문성'을 기준으로 판단—전문성이 낮으면 핵심 기능만 선택해 적용한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 호출·레이턴시 차이가 운영에 영향

  • 세션 통계에서 모델별 호출 수와 평균 레이턴시가 크게 달라 라우팅·비용·응답성 설계에 직접적 영향을 미침(예: cliproxy/claude-sonnet 평균레이턴시 낮음).
  • 태그: 운영관찰, 성능데이터

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 필요 기능을 추가할 때 단일 에이전트 확장 대신 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등으로 세분화해 책임과 테스트 범위를 명확히 함.
  • 태그: 아키텍처, 책임분리

  • 🔄 [개선] 자동화 스크립트와 테스트 병행 작성

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 마련해 배포 전 검증을 병행함으로써 회복 작업 신뢰도를 높임.
  • 태그: 자동화, 테스트주도

  • 📚 [교훈] 공식 문서 확인이 필요하면 정정 로그 남기기

  • 초기에 gpt-5.4 mini 공개 여부를 확인 못했다가 나중에 공식 문서에서 공개 표기를 확인해 정정함. 문서 검증·정정 기록은 의사결정 추적에 중요함.
  • 태그: 문서검증, 추적기록

  • 📚 [교훈] 높은 프롬프트/호출량은 성공률·에러 추적 필요

  • 대규모 LLM 호출(수백건)에 에러가 일부 발생(예: 6건)하므로 호출량이 많을 때는 성공률·에러 원인 로그를 자동집계하고 빠르게 피드백 루프를 돌려야 함.
  • 태그: 모니터링, 신뢰성

  • 💡 [발견] 도메인 이벤트(예: 전쟁)와 섹터 반응의 빠른 연결

  • 대화에서 전쟁 관련 사건을 섹터별 수혜주로 빠르게 맵핑(방산, 에너지, 금, 사이버보안, 해운, 비료 등)해 사용자 질문에 즉시 답변할 수 있는 지식 흐름이 유효함.
  • 태그: 도메인지식, 신속대응

  • ⚖️ [판단] 빠른 실행 모델은 대량·단순 요청에 우선 배치

  • 빠른 실행을 요하는 작업은 레이턴시·처리량이 낮은 모델(Haiku)에 맡기고, 복잡한 판단은 고비용·고성능 모델(Opus)에 배분하는 기준을 채택함.
  • 태그: 운영정책, 우선순위

2026-03-19

  • 🔧 [해결] 필요한 기능만 체리픽해서 도입
  • 전체 OMC 도입은 불필요하다고 판단하고 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 복잡도를 줄임
  • 태그: 체리픽, 비용절감, 범위결정

  • 🔧 [해결] 모델 역할에 따라 단계적 라우팅 적용

  • 심층 판단에 Opus, 분석·디버깅에 Sonnet, 빠른 실행에 Haiku를 배정하는 3단계 모델 라우팅으로 처리 성격에 맞는 모델 분배 구현
  • 태그: 모델라우팅, 역할분배, 성능최적화

  • ⚖️ [판단] 전체 도입 vs 부분 체리픽 판단 기준: 도메인 적합성

  • 새 기술을 전체 적용할지 여부는 팀의 도메인 전문성과 적용 효용성으로 판단함(도메인 맞지 않으면 일부 기능만 채택)
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] Codex CLI에서 모델 오버라이드 지원

  • Codex 로컬 설치는 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원함을 확인함
  • 태그: 도구특성, 모델설정

  • 💡 [발견] 모델별 레이턴시·성공률 차이 관찰

  • 같은 작업에서 모델별 호출 수·평균 레이턴시가 크게 달라 성능·비용 고려해 모델 선택 필요함(예: cliproxy/claude-sonnet-4-6이 낮은 레이턴시)
  • 태그: 관측, 성능분석

  • 🔄 [개선] 에이전트 스케일 업으로 역할 분화

  • 기존 8개에서 12개로 에이전트 확장하여 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 전담 역할을 추가해 책임과 기능을 분리함
  • 태그: 아키텍처, 역할분화

  • 🔄 [개선] 프롬프트·호출 모니터링으로 안정성 관리

  • 세션별 LLM 호출 통계(총 호출, 성공률, 프롬프트/응답량, 에러 수)를 정기적으로 기록해 모델 성능·신뢰성을 모니터링하도록 워크플로우에 포함함
  • 태그: 관찰성, 운영

  • 📚 [교훈] 빠른 결론 금지 — 문서 재확인으로 정정

  • 초기에 gpt-5.4 mini 공개 여부를 확인할 수 없다고 기록했다가 공식 문서 재확인으로 정정함: 중요한 사실은 반복 확인 후 기록할 것
  • 태그: 검증, 실수교정

  • 📚 [교훈] 체계적 자동화 스텝(스크립트→유닛테스트→리포트)

  • recovery 리포트 자동화 스크립트 작성 후 바로 유닛/통합 테스트를 작성함으로써 자동화 작업은 곧바로 테스트·검증 파이프라인에 연결해야 함을 확인
  • 태그: 테스트우선, 자동화

  • 🔧 [해결] 전문성 부족 시 최소 유효 제품으로 진행

  • 도메인 전문성과 맞지 않을 때 전체 적용보다 최소 기능만 먼저 구현해 빠르게 결과를 보고 판단 근거를 쌓음
  • 태그: MVP, 리스크관리

2026-03-19

  • 🔧 [해결] 문제 많은 모델 호출은 모델별 에이전트 분리로 해결
  • LLM 호출 지연·부하 문제를 모델별 에이전트(예: Opus/Sonnet/Haiku)로 분리하여 각 모델 특성에 맞춘 라우팅(심층 판단·분석·빠른 실행)으로 처리함. 호출 성공률과 레이턴시를 모델별로 관찰·최적화하는 워크플로우.
  • 태그: 모델운영, 아키텍처, 성능

  • 🔧 [해결] 특정 기능만 체리픽하여 도메인·비용 절감

  • OMC 전체 도입 대신 도메인 적합한 핵심 3가지(에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선정해 구현함으로써 개발 비용과 복잡도를 줄임.
  • 태그: 프로덕트전략, 스코핑

  • ⚖️ [판단] A vs B 비교 시 도메인 적합성으로 결정

  • 신기술(예: OMC) 전체 도입 여부는 내부 도메인 적합성으로 판단 — 코드 개발 전문이면 전체 도입 불필요, 필요한 부분만 선택적으로 체리픽.
  • 태그: 의사결정, 우선순위

  • 💡 [발견] 모델별 레이턴시·성공률 차이가 운영 전략으로 직결

  • 로그에서 모델별 호출 수·성공률·평균 레이턴시가 뚜렷하게 다름을 확인(예: sonnet 레이턴시 낮음). 이를 근거로 라우팅 정책과 에이전트 역할을 나눔.
  • 태그: 관찰, 모니터링

  • 🔄 [개선] 프롬프트·응답 누적량 관찰로 자원 계획 개선

  • 프롬프트 총량·응답 총량, 호출 횟수를 정기적으로 수집해 에이전트 수 확장(8→12)과 스크립트(복구 리포트 자동화, 테스트) 작성으로 처리능력과 신뢰성 강화.
  • 태그: 운영자동화, 용량계획

  • 📚 [교훈] 초기 확인 미흡은 정정 로그로 보완해야 함

  • 08:14에 gpt-5.4 mini 공개 불가로 기록했다가 08:16 정정으로 공개 확인됨 — 외부 문서 확인은 즉시 재검증하고 정정 로그를 남겨 혼선을 줄여야 함.
  • 태그: 검증절차, 문서관리

  • 📚 [교훈] 광범위한 추천(종목) 실수는 범위 좁혀 보완 제공

  • 사용자 문의에서 특정 섹터(Vg 등)를 놓친 점을 인정하고 전쟁 수혜주 전체 맵을 정리해 보완 — 응답 누락 시 빠르게 범위를 확장해 보완 제공하는 대응이 필요함.
  • 태그: 사용자응대, 피드백대응

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽 적용
  • 전체 OMC 도입이 적합하지 않을 때는 도메인에 맞는 핵심 기능만 선별(체리픽)해 적용한다 — 여기서는 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 3가지만 도입함.
  • 태그: 도메인적합성, 체리픽, 경량화

  • ⚖️ [판단] 모델 라우팅은 역할 기준으로 분리

  • 에이전트 라우팅을 성능·역할 기준으로 결정 — Opus는 심층 판단, Sonnet은 분석·디버깅, Haiku는 빠른 실행처럼 역할에 맞춰 모델/에이전트를 배치한다.
  • 태그: 모델선택, 역할기반, 성능분리

  • 💡 [발견] 모델별 레이턴시·호출 특성 관찰

  • 같은 작업군 내에서도 모델별 호출 횟수·평균 레이턴시가 크게 달라짐(예: cliproxy/claude-sonnet-4-6은 저지연, github-copilot/gpt-5-mini는 고지연) — 라우팅·스케줄링에 반영 필요.
  • 태그: 계측, 관찰, 스케줄링

  • 🔄 [개선] 에이전트 확장 시 역할 세분화

  • 기존 에이전트 수를 늘리되 기능을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)하여 책임 경계를 명확히 하고 특정 작업에 최적화된 에이전트를 둠.
  • 태그: 아키텍처, 분업, 확장성

  • 🔧 [해결] 리포트·리커버리 자동화로 테스트 신속화

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트 작성으로 장애 수집·검증 워크플로우를 자동화해 회복력과 검증 속도 개선.
  • 태그: 자동화, 테스트, 회복력

  • ⚖️ [판단] 공식 문서 확인 후 로컬 도구 기능 검증

  • 모델 공개 여부는 공식 문서로 확인하고, 로컬 도구(Codex CLI)의 모델 오버라이드 지원 여부는 실제 설정(-m/--model, config.toml)으로 검증해 결정을 내림.
  • 태그: 검증, 문서기반, 운영절차

  • 💡 [발견] 프롬프트·응답 볼륨 대비 에러율·성공률 차이

  • 세션별 프롬프트 총량과 호출 수가 크게 다른데도 성공률은 높은 편 — 높은 호출량에서도 에러 관리(에러 수 기록)가 중요함.
  • 태그: 측정항목, 신뢰성, 운영지표

  • 📚 [교훈] 과거 단정 후 정정은 신속히 로그화

  • 08:15에 '공개 확인 불가'로 기록했다가 08:16에 정정해 공개 표기 확인함 — 정정 사항을 즉시 의사결정 로그에 남겨 추적 가능하게 해야 함.
  • 태그: 투명성, 로그관리, 운영절차

  • 📚 [교훈] 범위가 넓으면 전체 도입 대신 최소 영향 구현부터

  • OMC 전체 도입 대신 도메인 적합성에 맞춰 최소 유용 기능만 먼저 도입한 것은 실패 위험을 줄이는 좋은 관행이라는 교훈.
  • 태그: 리스크관리, 점진적도입, 실행전략

  • 🔄 [개선] 모델 역할·지연에 따른 호출 분배 정책 필요

  • 모델별 레이턴시·성공률 통계를 기반으로 작업 유형별(심층 판단 vs 빠른 실행) 모델 배정 정책을 문서화·자동화하면 효율성 향상.
  • 태그: 정책화, 효율화, 모니터링

2026-03-19

  • 🔧 [해결] 대규모 기능은 체리픽으로 축소
  • 전체 OMC 도입은 도메인 불일치로 배제하고, 핵심 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용·복잡도 절감
  • 태그: 범위조정, 효율화, OMC

  • 🔧 [해결] 모델 특성에 따라 에이전트 역할 분배

  • 세 모델(Opus/ Sonnet/ Haiku)을 기능별로 라우팅해 심층판단·분석·빠른실행 역할을 분리함으로써 처리 효율과 응답 레이턴시 최적화
  • 태그: 아키텍처, 모델라우팅, 성능

  • ⚖️ [판단] 전체 도입 vs 선택적 체리픽 결정 기준: 도메인 적합성

  • 새 기술·프레임워크 도입 시 전체 적용보다 도메인 적합성을 기준으로 우선순위가 높은 부분만 체리픽 적용하기로 결정
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 레이턴시 차이 확인

  • 같은 작업군에서도 모델별 평균 레이턴시가 크게 달라(Opus/sonnet/gpt variants), 라우팅 설계로 레이턴시·성능 트레이드오프를 관리할 수 있음
  • 태그: 관찰, 성능모니터링

  • 🔄 [개선] 에이전트 확장으로 역할 분리

  • 단일 에이전트 구조에서 분석·리포트·디버깅·크론 진단 등으로 에이전트를 세분화(8→12)하여 책임 분리와 병렬 처리 개선
  • 태그: 리팩터, 병렬화, 운영

  • 🔄 [개선] 사전적(compactive) 훅 도입으로 자원관리

  • preemptive-compaction 훅을 추가해 런타임이나 로그·데이터를 사전 정리함으로써 지속적 호출로 인한 자원 누수와 성능 저하를 예방
  • 태그: 운영자동화, 자원관리

  • 📚 [교훈] 문서 확인의 재검증 필요성

  • 08:14에 gpt-5.4 mini 공개 불확인으로 기록했다가 08:16에 정정함 — 외부 문서(공식모델 문서) 확인 시 즉시 교차검증 프로세스를 넣어야 함
  • 태그: 절차, 검증

  • 💡 [발견] LLM 호출 성공률·에러 추적의 운영 가치

  • 세션별 호출 수·성공률·에러·프롬프트·응답량 통계를 정기적으로 기록하면 모델 안정성·비용·병목 원인 분석에 유용함
  • 태그: 모니터링, 운영지표

  • 🔧 [해결] 사용자 불만(종목 추천)은 빠른 섹터 맵으로 대응

  • 단일 종목 불만 제기에 대해 섹터별 현재 수익률·대표종목·핵심 포인트를 정리해 빠르게 대응하고 신뢰 회복
  • 태그: 고객응대, 콘텐츠정리

2026-03-19

  • 🔧 [해결] 문제별 모델 체리픽으로 복잡도만 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 필요한 세 가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택적으로 체리픽해 도입해 비용과 복잡도를 줄임.
  • 태그: 모델운영, 단계적도입, 비용절감

  • ⚖️ [판단] 모델 라우팅은 작업 성격 기준으로 분리

  • 심층 판단 작업은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku로 3단계 라우팅해 각 모델의 강점을 업무 유형에 맞춰 배치함.
  • 태그: 모델선택, 업무분류, 성능최적화

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml의 model 키로 로컬에서 모델을 교체할 수 있어 공식 공개 정보와 별개로 내부 환경에서 실험 가능함.
  • 태그: 툴인식, 환경설정

  • 💡 [발견] 모델별 레이턴시 차이가 운영 결정에 영향

  • 같은 작업군에서 cliproxy/claude-sonnet-4-6이 평균 레이턴시가 낮아(≈4s) 고빈도 호출에 유리함을 관측, 호출 분배에 반영함.
  • 태그: 성능관찰, 운영정책

  • 🔄 [개선] 에이전트 확장으로 역할 분리

  • 기존 에이전트를 8→12로 확장하여 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등 전문 역할을 추가, 책임 범위와 전문성을 분리해 병렬 처리와 유지보수 용이성 향상.
  • 태그: 조직구조, 역할분리, 확장성

  • 🔧 [해결] 프롬프트·응답 통계로 안정성 모니터링

  • 총 호출·성공률·프롬프트/응답 총량·에러 수를 정기 집계해 모델 안정성과 비용(토큰량)을 관리하고 문제 발생 시 빠르게 원인 추적함.
  • 태그: 모니터링, 운영지표

  • 📚 [교훈] 공식 문서 확인 후 정정 절차 필요

  • 초기에는 gpt-5.4-mini 공개 여부를 확인하지 못했으나 추가 확인을 통해 정정했음 — 중요한 외부 사실은 즉시 문서 검증·정정 로그를 남겨 혼선을 줄여야 함.
  • 태그: 검증절차, 정정로그

  • 📚 [교훈] 과도한 모델 호출은 비용·지연 리스크

  • 일일 호출 수와 토큰 사용량이 급증하면 성공률/레이턴시 관찰을 통해 모델 배분을 조정해야 함(예: 고빈도는 저지연 모델로 이동).
  • 태그: 비용관리, 성능조정

2026-03-19

  • 🔧 [해결] 문제별 모델 체리픽으로 복잡도 줄이기
  • 전체 OMC 도입 대신 도메인 적합성에 따라 필요한 기능만 선별(cherry-pick)해 구현 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 같은 핵심 3가지만 적용하여 불필요한 확장을 피함.
  • 태그: 모델링, 최소화, 체리픽

  • 🔧 [해결] 역할 기반 모델 라우팅으로 작업 분담

  • 작업 특성에 따라 모델 역할을 분리(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)하여 응답 품질과 레이턴시 균형을 맞춤.
  • 태그: 라우팅, 성능, 역할분리

  • ⚖️ [판단] 도메인 적합성으로 전체 도입 여부 결정

  • 새 프레임워크(OMC)를 도입할 때 코드 개발 전문성과의 적합성을 기준으로 전체 도입 대신 필요한 부분만 채택하기로 결정함(도메인 미일치 → 부분 채택).
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시 차이 관찰

  • 같은 작업군에서 cliproxy/claude-sonnet-4-6은 평균 레이턴시가 낮고 호출 수가 많음에 비해 github-copilot/gpt-5-mini는 레이턴시가 더 높았음 — 모델 선택이 전체 처리 속도에 큰 영향.
  • 태그: 관찰, 성능계측

  • 🔄 [개선] 자동화 스크립트·테스트 병행으로 신뢰도 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화 기능을 코드화하고 검증을 통해 신뢰도를 높임.
  • 태그: QA, 자동화, 테스트

  • 📚 [교훈] 공식 문서 확인 후 정정·업데이트 필요

  • 초기에 gpt-5.4 mini 공개 여부를 잘못 판단했다가 공식 문서 확인으로 정정함 — 중요 정보는 외부 공식 문서로 즉시 검증해야 함.
  • 태그: 검증, 문서확인, 실수교훈

  • 💡 [발견] LLM 호출 통계로 운영 병목·신뢰도 진단

  • 세션별 호출 수·성공률·프롬프트/응답 총량을 기록하여 모델 안정성(성공률, 에러수)과 비용(프롬프트량)을 모니터링함 — 운영 의사결정 근거로 사용 가능.
  • 태그: 모니터링, 지표, 운영

  • 🔧 [해결] 신속한 도메인 응대는 전문가 모델에 위임

  • 도메인 전문 작업(코드 개발 등)은 전체 일반 프레임워크보다 해당 분야에 맞춘 모델/에이전트에게 위임하여 정확도와 효율을 확보함.
  • 태그: 위임, 전문화, 효율화

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽(선택적 적용)
  • 전체 OMC 도입이 불필요할 때는 도메인에 맞는 핵심 기능 3가지만 골라(cherry-pick) 적용한다 — 모델별 에이전트 분리, learner 패턴 추출, 선제적(compaction) 훅 적용으로 비용과 복잡도 절감.
  • 태그: 체리픽, 범위결정, 비용절감

  • ⚖️ [판단] 모델·에이전트 분배 기준: 역할별 전문성 우선

  • 심층 판단엔 Opus, 분석·디버깅엔 Sonnet, 빠른 실행엔 Haiku처럼 에이전트/모델을 역할(심층판단 vs 분석 vs 실행)에 맞춰 라우팅한다 — 성능·지연·역할 적합성으로 판단.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 프롬프트·응답 볼륨과 호출 성공률 추적의 가치

  • 세션별 총 호출·성공률·프롬프트/응답 총량을 지속 측정하면 모델별 레이턴시·에러 패턴과 작업 부하 분배 필요성을 조기에 식별할 수 있음.
  • 태그: 관찰지표, 모니터링

  • 🔄 [개선] preemptive-compaction 훅으로 작업 효율화

  • 프롬프트/데이터를 선제적으로 압축·정리하는 훅(preemptive-compaction)을 도입해 LLM 호출 비용·지연을 줄이고 응답 안정성을 높인다.
  • 태그: 프롬프트관리, 비용절감, 성능최적화

  • 🔧 [해결] 확장 시 에이전트 소규모 단계적 추가

  • 기존 8개에서 12개로 확장할 때 기능별(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)로 소규모 단계적 추가를 통해 위험을 분산하고 책임 범위를 명확히 함.
  • 태그: 스케일링, 단계적배포

  • 📚 [교훈] 공식 문서 확인의 중요성 — 정정 프로세스

  • 초기에는 gpt-5.4 mini 공개 여부가 불확실했으나 곧 공식 문서에서 확인되어 정정함. 외부 정보는 확정 전 정기 재확인·기록(의사결정 로그)을 남겨 혼선을 줄여야 함.
  • 태그: 정보검증, 의사결정로그

  • 🔄 [개선] 테스트·자동화 병행(스크립트 + 유닛/통합 테스트)

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 단위·통합 테스트 작성을 병행해 자동화 코드의 신뢰성을 확보하는 워크플로우로 전환.
  • 태그: 테스트자동화, 신뢰성

  • ⚖️ [판단] 모델 교체·오버라이드 정책: 로컬 지원 여부 우선 확인

  • 모델 변경 가능성 확인 시 공식 공개 여부와 로컬 툴(예: Codex CLI의 -m/--model, config.toml)에서 오버라이드 지원 여부를 동시에 검토해 적용 가능성을 판단한다.
  • 태그: 운영정책, 툴지원검증

2026-03-19

  • 🔧 [해결] 필요한 부분만 체리픽해서 도입
  • 전체 OMC 도입은 도메인 불일치로 불필요하므로, 코드 개발에 맞춰 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 핵심 3가지만 골라 적용했다. 범위 축소로 비용과 복잡도 절감.
  • 태그: 스코핑, 비용절감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할별 능력으로 분류

  • 에이전트 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델/에이전트의 강점과 역할(심층 vs 분석 vs 실행)에 따라 3단계로 나눠 적용하기로 결정했다.
  • 태그: 모델선택, 역할기반

  • 💡 [발견] 모델별 레이턴시와 호출비중 차이 관찰

  • 같은 세션에서 cliproxy/claude-sonnet-4-6은 호출이 많고 레이턴시가 짧은 반면 github-copilot/gpt-5-mini는 호출수는 적지만 레이턴시가 길었다. 작업 성격에 따라 모델을 분배하면 효율이 올라감.
  • 태그: 관찰, 성능측정

  • 🔧 [해결] 로컬 CLI로 모델 오버라이드 확인→유연한 모델 전환

  • Codex CLI의 -m/--model 및 config.toml model 키로 로컬에서 모델을 손쉽게 전환할 수 있음을 확인해, 공식 발표 시점과 무관하게 로컬 환경에서 빠르게 실험·전환 가능하도록 대응했다.
  • 태그: 도구활용, 운영유연성

  • 🔄 [개선] 에이전트 확장으로 역할 분담 강화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임 구역을 세분화하고 전문성을 높였다.
  • 태그: 조직화, 확장

  • 📚 [교훈] 공식 문서 확인 후 정정 기록 필수

  • 초기에 gpt-5.4 mini 공개 여부를 확인 못했다가 정정한 사례처럼 외부 문서 확인 결과는 즉시 의사결정 로그에 남겨 혼선과 반복조사를 줄여야 한다.
  • 태그: 문서중요성, 기록

  • 💡 [발견] 프롬프트/응답 비율로 비용·효율 인사이트 획득

  • 프롬프트 총량과 응답 총량, 호출수·성공률 통계를 통해 어떤 작업이 프롬프트 비용을 많이 소모하는지 파악할 수 있어 최적화 포인트를 찾는 근거가 된다.
  • 태그: 측정가능성, 비용분석

  • 🔧 [해결] 자동화 스크립트→유닛/통합 테스트 순으로 개발

  • recovery 리포트 자동화 스크립트를 먼저 작성하고 이어서 recovery_collector 유닛·통합 테스트를 작성하는 순서를 택해 자동화의 신뢰도를 높였다.
  • 태그: 개발워크플로우, 테스트우선

  • 📚 [교훈] 모델 실패(0% 성공) 항목은 따로 추적 필요

  • 로그에 gpt-5-mini, qwen2.5:7b, openai-codex/gpt-5.4 등이 호출은 있으나 성공률 0%로 표기된 사례가 있어, 실패 원인(인증/호환성/버전)을 분리해 추적·해결해야 함.
  • 태그: 모니터링, 신뢰성

2026-03-19

  • 🔧 [해결] 특정 기능만 체리픽하여 도입
  • 전체 OMC 도입 대신 도메인 적합성 판단 후 필요한 기능 3개(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로 도입 비용·복잡도 감소
  • 태그: 체리픽, 비용절감, 적합성검토

  • ⚖️ [판단] 도메인 적합성으로 도입 범위 결정

  • 플랫폼 전체 도입과 부분 도입(A vs B)을 비교할 때 '팀의 도메인 전문성'을 기준으로 판단해 불필요한 전체 도입을 피함
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 라우팅으로 역할 분담

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)처럼 모델별로 역할을 나누면 호출 성공률과 응답 성능을 최적화할 수 있음
  • 태그: 모델라우팅, 성능최적화

  • 🔄 [개선] 에이전트 수평 확장으로 기능 분화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 책임을 분리해 병렬 처리와 유지보수성 향상
  • 태그: 아키텍처개선, 책임분리

  • 🔧 [해결] 로컬 툴체인으로 모델 오버라이드

  • 공식 문서의 불확실성(모델 공개 여부) 상황에서 로컬 Codex의 -m/--model 옵션과 config.toml 설정을 이용해 모델 변경을 지원함으로써 대응 가능
  • 태그: 대체경로, 운영대응

  • 📚 [교훈] 문서 확인 후 정정 기록 남기기

  • 초기에 gpt-5.4-mini 공개 불확실이라 판단했다가 공식 문서 확인으로 정정함—결정 근거와 정정 시점을 기록해 혼선과 중복 작업을 줄여야 함
  • 태그: 문서검증, 투명한기록

  • 🔄 [개선] 자동화 스크립트→유닛/통합 테스트 순서

  • recovery 리포트 자동화 스크립트 작성 후 바로 recovery_collector의 유닛·통합 테스트를 작성해 자동화 작업의 신뢰도를 높임
  • 태그: 테스트우선, 자동화워크플로우

  • 💡 [발견] LLM 호출 통계로 모델 배치 인사이트 확보

  • 모델별 호출수·성공률·레이턴시를 지속적으로 수집하면 어느 모델에 어떤 작업을 할당할지(예: 응답속도·신뢰도 기준) 결정하기 쉬움
  • 태그: 관찰지표, 운영분석

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심만 도입
  • 전체 OMC 도입은 도메인 부적합하다고 판단되면, 전면 도입 대신 해당 세션에서 효과가 큰 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 우선 구현한다.
  • 태그: 작업우선순위, 범위축소, 빠른가치

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리

  • 모델 선택은 수행 역할(심층판단 vs 분석·디버깅 vs 빠른실행)에 따라 Opus/Sonnet/Haiku처럼 계층화해 라우팅한다. 복잡도와 응답속도를 기준으로 판단한다.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 도구는 모델 오버라이드 지원

  • Codex CLI는 -m/--model 또는 config.toml의 model 키로 로컬에서 모델 오버라이드를 지원함을 확인했다 — 문서 확인 후 로컬 설정으로 대응 가능.
  • 태그: 도구제약, 운영

  • 🔧 [해결] 작업 단위는 에이전트로 확장

  • 기능 확장(예: analyst, report-writer, pipeline-debugger-deep)을 통해 역할별 에이전트를 늘려 작업을 병렬화하고 책임을 분리함으로써 유지보수성과 추적성을 높였다.
  • 태그: 작업분할, 병렬화

  • 🔄 [개선] 프롬프트/호출 통계로 안정성 모니터링

  • 총 호출·성공률·프롬프트·응답·에러 수를 주기적으로 집계해 모델별 성공률과 레이턴시를 모니터링, 실패 원인 파악과 최적화 포인트(예: 고지연 모델 분리)에 활용한다.
  • 태그: 관찰성, 모니터링

  • 📚 [교훈] 전면 도입 전 도메인 적합성 검증 필요

  • OMC 같은 큰 프레임워크는 도메인 적합성을 먼저 검토하지 않으면 낭비가 발생 — 초기에는 소규모 체리픽으로 검증 후 확장해야 한다.
  • 태그: 검증, 리스크관리

  • 💡 [발견] 전쟁·지정학 이벤트는 섹터별 연쇄 효과 유발

  • 지정학적 사건(예: 전쟁, 가스전 피격)은 방산·에너지·금·비료·해운 등 다중 섹터에 동시 영향 — 섹터 간 연관성 맵을 만들어 추천에 반영하면 설명력 증가.
  • 태그: 도메인지식, 연관성

  • 🔧 [해결] 사용자 불만엔 빠른 사과와 범위 보완 제공

  • 투자 추천 누락 불만에 대해 즉시 사과하고 부족했던 섹터(전쟁수혜주)를 전체 맵으로 보완 제공함으로써 신뢰 회복과 정보 충족을 동시에 해결했다.
  • 태그: 고객응대, 신뢰회복

2026-03-19

  • 🔧 [해결] 체리픽 방식으로 부분 도입
  • OMC 전체 도입이 도메인에 맞지 않을 때는 핵심 유용 기능 3가지만 선별해 적용한다 (예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 전체 전환 대신 부분 체리픽으로 리스크와 개발 비용 절감.
  • 태그: 거버넌스, 점진적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 결정

  • 모델을 역할별로 나눌 때는 '심층 판단', '분석·디버깅', '빠른 실행' 같은 역할 기준으로 라우팅(예: Opus=심층, Sonnet=분석, Haiku=빠른 실행)을 적용해 호출 효율과 응답 품질을 높임.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 로컬 CLI와 공식 문서 사이의 정보 시차

  • Codex CLI는 로컬에서 모델 오버라이드(-m/--model, config.toml)를 지원하는 반면, 공개 문서의 표기 여부(예: gpt-5.4-mini)는 시점에 따라 다르므로 로컬 확인과 공식 문서 확인을 병행해야 함.
  • 태그: 운영절차, 문서관리

  • 🔄 [개선] 에이전트 확장 시 역할 세분화

  • 기존 에이전트 집합(예: 8개)을 확장할 때 새로운 전문 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)를 추가해 책임과 기능을 명확히 분리함으로써 작업 병렬성과 전문성 향상.
  • 태그: 팀운영, 스케일링

  • 🔧 [해결] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector에 대해 유닛/통합 테스트를 병행하면 복구 절차의 신뢰도와 재현성이 향상됨.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 통계는 시간대별 누적이 중요

  • 같은 날짜에 여러 세션이 쌓이며 호출/응답 통계가 누적되므로, 오류·성공률·레이턴시 분석 시 시점과 누적 범위를 명확히 구분하지 않으면 잘못된 결론을 내릴 수 있음.
  • 태그: 관측성, 계량

  • 💡 [발견] 도메인 적합성 기준으로 도입 범위 결정

  • 새 기법(OMC 등)은 '코드 개발 전문' 같은 내부 도메인 특성과의 적합성을 먼저 평가하고, 부적합하면 전면 도입 대신 일부 기능만 채택하는 것이 효과적임.
  • 태그: 전략, 도메인검토

  • 📚 [교훈] 정정 로그의 빠른 반영 필요

  • 08:15에 공개 불가로 기록했다가 08:16에 정정해 공개 표기 확인한 사례처럼 문서·사실 변경이 발생하면 즉시 의사결정 로그를 정정해 혼선을 줄여야 함.
  • 태그: 절차, 변경관리

2026-03-19

  • ⚖️ [판단] 도구 전체 도입 대신 핵심만 체리픽
  • OMC를 전체 도입하지 않고 도메인 적합성을 고려해 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 3가지만 선택해 적용함 — 범용 도입 대신 도메인 적합성으로 기능을 제한해 위험·비용을 줄임.
  • 태그: 의사결정, 범위선정, 리스크관리

  • 🔄 [개선] 모델 역량에 따른 3단계 라우팅

  • 요구 수준(심층 판단·분석·빠른 실행)에 맞춰 Opus/Sonnet/Haiku로 요청을 분산하는 3단계 모델 라우팅을 도입해 역할·성능을 최적화함.
  • 태그: 아키텍처, 성능최적화, 모델라우팅

  • 🔧 [해결] 에이전트 수평 확장으로 역할 분리 해결

  • 필요 기능에 맞춰 에이전트를 8→12개로 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)해 단일 에이전트의 역할 과부하 문제를 해소함.
  • 태그: 스케일링, 역할분리, 운영

  • 💡 [발견] LLM 호출 통계로 안정성·비용 지표 확보

  • 세션별 총 호출·성공률·프롬프트·응답량·에러 수와 모델별 호출·레이턴시를 수집해 운영 안정성과 비용/성능 병목을 파악할 수 있음.
  • 태그: 관찰, 모니터링, 운영지표

  • 🔄 [개선] 복구 리포트 자동화 + 유닛/통합 테스트 추가

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector에 대한 유닛/통합 테스트를 도입해 복구 프로세스의 신뢰성과 재현성을 높임.
  • 태그: 자동화, 테스트, 신뢰성

  • 📚 [교훈] 문서 확인 전 초기 결론 위험

  • 08:15에 gpt-5.4 mini 공개 불가로 판단했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정 — 외부 문서 확인을 우선해 성급한 결론을 피해야 함.
  • 태그: 검증, 커뮤니케이션, 실무교훈

  • 💡 [발견] 모델별 레이턴시·성공률 차이는 역할 분배 기준이 됨

  • 같은 세션에서 모델별 호출수와 평균 레이턴시가 크게 달라(예: cliproxy 레이턴시 낮음, github-copilot 레이턴시 높음) 이를 기반으로 심층/빠른 작업을 나눔.
  • 태그: 관찰, 모델선택, 설계기준

  • 🔧 [해결] 도메인 불일치 시 전체 솔루션이 아닌 부분 적용으로 비용 절감

  • OMC 전체 도입이 도메인에 맞지 않음이 판단되자 핵심만 골라 적용해 개발비용·복잡도를 줄이고 효과는 유지함.
  • 태그: 비용절감, 범위조정, 실용주의

  • 📚 [교훈] 운영 지표는 실시간으로 집계해 의사결정에 반영

  • 프롬프트·응답량과 에러 수 등 지표를 세션마다 집계한 결과, 운영 이슈(에러·성능)를 조기에 발견·수정할 수 있음을 확인함 — 지표 자동화 필요.
  • 태그: 운영, 모니터링, 교훈

2026-03-19

  • 🔧 [해결] 문제별 체리픽 → 제한된 핵심만 도입
  • OMC를 전체 도입하지 않고 도메인 적합성 부족을 이유로 세 가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 적용하여 개발비용과 리스크를 줄임.
  • 태그: 범위축소, 리스크관리, 체리픽

  • 🔧 [해결] 모델 특성에 따른 라우팅 분리

  • 작업 특성(심층 판단 vs 분석·디버깅 vs 빠른 실행)에 맞춰 Opus/Sonnet/Haiku로 3단계 모델 라우팅을 설계하여 각 모델에 맞는 역할을 부여함으로써 응답 효율과 품질을 최적화함.
  • 태그: 모델라우팅, 성능최적화, 역할분리

  • ⚖️ [판단] 전체 도입 vs 선별 도입 판단 기준은 도메인 적합성

  • 새 기법(OMC 등)을 전사적으로 도입할지 여부는 해당 기법이 현재 작업의 도메인에 적합한지를 기준으로 결정함(적합하지 않다면 체리픽으로 제한 적용).
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 호출·지연 특성의 패턴

  • 같은 작업군에서도 모델별 호출 수와 평균 레이턴시가 크게 다름(예: claude-sonnet 호출 많고 레이턴시 짧음 vs gpt-5-mini 소수 호출에 실패 사례 존재), 이를 통해 작업에 적합한 모델 선택 근거 확보.
  • 태그: 모델모니터링, 성능관찰

  • 🔄 [개선] 자동화·테스트 병행 워크플로우

  • recovery 리포트 자동화 스크립트 작성 및 recovery_collector 유닛/통합 테스트를 병행하여 자동화 도입 시 검증 커버리지를 함께 확보하는 방식으로 개발→검증 사이클을 단축함.
  • 태그: 자동화, 테스트주도, CI

  • 📚 [교훈] 공식 문서 확인의 재검증 필요성

  • gpt-5.4 mini 공개 여부를 둘러싼 초기 미확인 정보가 정정으로 이어짐 — 외부 문서(공식 Models 문서) 확인과 바로잡기 절차를 빠르게 수행해야 혼선 방지 가능.
  • 태그: 정보검증, 소통

  • 💡 [발견] 도메인별 수혜 섹터 연결 고리

  • 대화 로그에서 시장 이벤트(전쟁, 가스전 피격 등)가 특정 섹터(방산, 사이버보안, 비료, 금 등)에 직접적·다단계 영향(수요 증가·원료 차질→가격 상승)을 주는 패턴이 반복 관찰됨. 이벤트→섹터→대표종목으로 mapping 가능.
  • 태그: 도메인인사이트, 이벤트영향분석

2026-03-19

  • 🔧 [해결] 체리픽으로 필요 작업만 도입
  • 전체 OMC 도입 대신 도메인 적합성 기준으로 관련성이 높은 3가지를 선별(cherry-pick)해 구현함 — 필요성·비용·전문성 고려로 범위 축소해 개발 효율을 높임.
  • 태그: 범위관리, 우선순위, 효율

  • 🔧 [해결] 모델별 라우팅으로 역할 분담

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버그), Haiku(빠른 실행)로 모델 라우팅해 각 모델의 강점을 살림 — 책임 분리로 처리 속도와 정확도 향상.
  • 태그: 아키텍처, 모델선택, 책임분리

  • ⚖️ [판단] 기능 도입 여부는 도메인 적합성으로 결정

  • 새 프레임워크나 방식 도입 시 '코드 개발 전문' 등 내부 도메인 적합성을 우선 판단해 전체 도입 대신 부분 채택을 결정함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 클라우드/로컬 도구는 모델 오버라이드 지원 차이

  • Codex CLI가 -m/--model과 config.toml의 model 키로 로컬에서 모델 오버라이드 가능함을 확인 — 배포·테스트 환경에서 모델 전환이 용이함.
  • 태그: 도구속성, 운영

  • 🔄 [개선] preemptive-compaction 훅으로 리소스 관리 자동화

  • preemptive-compaction 스크립트 훅을 만들어 실행 전 압축/정리 작업을 선행하도록 함으로써 LLM 호출·데이터 처리 효율을 개선함.
  • 태그: 자동화, 성능, 운영

  • 🔧 [해결] 에이전트 수평 확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 확대하여 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 역할을 추가해 병렬 처리와 전문성 향상 달성.
  • 태그: 스케일링, 조직화, 병렬처리

  • 📚 [교훈] 초기 과대적용은 복잡도 증가로 귀결

  • OMC를 전체 도입하려다 도메인 불일치로 범위 축소함 — 새 시스템은 먼저 소규모로 검증하고 핵심만 채택해야 함.
  • 태그: 교훈, 점진도입

  • 💡 [발견] LLM 호출 통계로 모델 성능·비용 인사이트 확보

  • 모델별 호출 수·성공률·레이턴시 로그를 통해 어떤 모델이 자주 쓰이고 응답이 빠른지 파악해 라우팅·선택 기준에 반영함.
  • 태그: 측정, 모니터링, 데이터기반결정

  • 🔧 [해결] 복구 리포트 자동화로 품질 보증 강화

  • recovery 리포트 자동화 스크립트와 유닛/통합 테스트를 작성해 복구 프로세스의 반복성·신뢰성을 높임.
  • 태그: 테스트, 자동화, 신뢰성

  • ⚖️ [판단] 정보 불확실성 정정은 즉시 로그로 남김

  • gpt-5.4 mini 공개 여부를 문서 확인 후 정정하고 그 시점을 의사결정 로그에 기록해 추적 가능하게 함.
  • 태그: 투명성, 기록

  • 📚 [교훈] 응답 실패 모델은 호출 통계로 빠르게 식별

  • 일부 모델(gpt-5-mini, qwen2.5 등)이 0% 성공률을 보인 사례에서 실패 모델을 추적해 사용 중단 또는 재설정 필요성을 확인함.
  • 태그: 관찰, 운영

  • 🔄 [개선] 작업별 에이전트 세분화 → 전문성 기반 배치

  • 분석·리포트·파이프라인·크론 등 영역별로 에이전트를 나누어 각 작업에 최적화된 에이전트를 배치함으로써 유지보수와 확장성을 개선함.
  • 태그: 프로세스개선, 역할분담

2026-03-19

  • 🔧 [해결] 대규모 프레임워크는 도메인에 맞게 체리픽해서만 도입한다
  • OMC 전체 도입이 불필요하다고 판단될 때는 핵심 유용 기능(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 3가지만 골라 빠르게 구현해 비용과 복잡도를 줄임
  • 태그: 도입정책, 단계적적용, 비용절감

  • 🔧 [해결] 모델 역할 기반 라우팅으로 작업 분산

  • 업무 성격에 따라 모델을 역할별로 분리(예: Opus=심층판단, Sonnet=분석·디버깅, Haiku=빠른실행)해 각 모델에 맞는 호출을 집중시켜 응답 품질과 처리속도를 최적화함
  • 태그: 모델배치, 성능최적화, 역할분리

  • ⚖️ [판단] 공식 문서 vs 로컬 확인은 교차검증으로 결정

  • 모델 공개 여부나 기능 지원은 먼저 공식 문서에서 확인하고(공식 표기 여부), 로컬 도구(Codex CLI)에서 지원 여부(-m/--model, config.toml)를 확인해 둘 다 검증되면 변경을 허용함
  • 태그: 검증절차, 문서대조

  • 💡 [발견] 모델 호출량과 평균 레이턴시는 작업 특성별로 크게 차이남

  • 예시로 cliproxy/claude-sonnet-4-6는 호출 수가 많고 레이턴시가 낮은 반면 github-copilot/gpt-5-mini는 호출이 적고 레이턴시가 높아, 빈번한 빠른 작업은 Sonnet 계열로 몰아야 효율적임
  • 태그: 관찰, 성능지표

  • 🔄 [개선] 에이전트 확장으로 역할을 세분화해 병목 완화

  • 기존 에이전트(8개)를 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임 분산과 동시처리 능력을 개선함
  • 태그: 아키텍처, 확장성

  • 🔧 [해결] 복구 리포트/테스트 자동화로 안정성 확보

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성하여 장애 탐지·보고·검증 흐름을 자동화함
  • 태그: 운영자동화, 테스트

  • 📚 [교훈] 초기 확인 부족으로 인한 정정은 빠르게 기록하고 공유하라

  • 08:15에 gpt-5.4 mini 공개 미확인으로 기록했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정됨 — 이런 경우 변경 이력과 근거(문서 링크/조사결과)를 즉시 남기면 혼선 최소화
  • 태그: 커뮤니케이션, 변경관리

  • 💡 [발견] 특정 섹터(전쟁 수혜주)는 복합 원인으로 동시에 급등함

  • 로그의 시장 분석에서 방산·에너지·금·사이버보안·해운·비료 등 여러 섹터가 동시 상승했는데 이는 정책(생산증대 요청), 지정학(공격), 공급차질(황 공급) 등 복합 요인이 동시에 작용한 결과임
  • 태그: 시장분석, 원인분해

2026-03-19

  • 🔧 [해결] 도메인 비적합한 큰 아키텍처는 전부 도입하지 않고 핵심만 체리픽
  • OMC 전체 도입은 도메인(코드 개발)에 맞지 않으니, 필요한 기능 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함. 전체 도입 대신 핵심만 발췌해 빠르게 적용하는 방식.
  • 태그: 아키텍처, 우선순위, 최소범위

  • ⚖️ [판단] 모델 라우팅은 '역할 기반'으로 분리해서 판단

  • 에이전트/모델을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 역할별로 나눔. 작업 성격(심층 판단 vs 빠른 실행)을 기준으로 어떤 모델/에이전트를 쓸지 결정하는 패턴.
  • 태그: 모델선택, 역할분리, 성격기반

  • 💡 [발견] 모델별 호출 통계로 성능·신뢰도 판단 가능

  • 세션별 LLM 호출 수, 성공률, 평균 레이턴시를 집계해 모델별 실사용 특성(지연, 신뢰도)을 파악함. 이 데이터를 토대로 라우팅·스케일링 결정을 내림.
  • 태그: 관찰, 계측, 모니터링

  • 🔄 [개선] 로컬 툴은 모델 오버라이드 지원을 확인해 빠른 테스트 루프 구성

  • Codex CLI의 -m/--model 및 config.toml 지원을 확인함으로써 로컬에서 모델을 손쉽게 교체해 테스트할 수 있게 함. 외부 문서 불확실성 발생 시 로컬 기능 검증을 먼저 수행하는 워크플로우로 개선.
  • 태그: 개발툴, 테스트, 피드백루프

  • 🔧 [해결] 복구 리포트·테스트 자동화로 회복력 확보

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 장애 복구 프로세스를 자동화하고 검증 가능한 유닛 테스트로 보강함. 수동 리포트→자동 생성+테스트 방식으로 전환.
  • 태그: 복구, 자동화, 테스트

  • 📚 [교훈] 초기 정보 오류는 즉시 정정하고 변경 로그로 남겨야 한다

  • 08:14에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 문서로 공개 표기 확인 후 정정함. 문서 근거 확인 절차와 정정 로그를 남기는 것이 중요하다는 교훈.
  • 태그: 운영절차, 정확성, 감시

  • ⚖️ [판단] 정보 요약 응답은 사과+범위 확장(예: 섹터 전체맵)로 신뢰 회복

  • 대화에서 사용자가 불만을 표현했을 때(특정 종목 누락), 먼저 사과하고 관련 범위를 넓혀(전쟁 수혜주 전체 맵 제공) 누락 문제를 보완하는 응답 패턴을 사용함. 고객 신뢰 회복을 위한 응답 구조.
  • 태그: 고객응대, 커뮤니케이션, 보완

2026-03-19

  • 🔧 [해결] 중요한 기능은 전체 도입 대신 체리픽으로 우선 구현
  • OMC를 전체 도입하지 않고 도메인에 맞는 3가지만 선별(cherry-pick)해 구현함으로써 개발 비용과 적합성 문제를 줄였다. 전체 전환보다 핵심 기능 선행 적용으로 리스크를 낮춤.
  • 태그: 우선순위, 리스크관리, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할·지연성 기준으로 분리

  • 모델을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 라우팅해 각 모델의 강점(정밀도 vs 속도)에 따라 작업을 배분했다. 판단 기준은 작업 성격(심층/분석/빠른 실행)과 레이턴시 요구.
  • 태그: 모델선택, 성능-지연성, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 모델 변경이 가능함을 확인하여 로컬 환경에서 유연한 모델 전환이 가능하다는 사실을 발견.
  • 태그: 툴링, 유연성, 운영

  • 🔄 [개선] 에이전트 확장으로 역할 분리 강화

  • 에이전트를 기존 8개에서 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 세분화함으로써 책임 분담과 전문성을 향상시켰다.
  • 태그: 조직화, 스케일업, 운영개선

  • 🔧 [해결] 프롬프트·모델 통계로 안정성 모니터링

  • 총 호출·성공률·레이턴시·프롬프트/응답량 등 지표를 수집해 모델별 성능과 오류를 빠르게 파악하고, 에러 발생 시 원인(모델별 0% 성공 등)을 식별하도록 설정했다.
  • 태그: 모니터링, 관찰성, 신뢰성

  • 💡 [발견] 전력/군사·에너지·금 등 섹터는 외부 이벤트에 민감

  • 전쟁 관련 뉴스로 방산·에너지·금·사이버보안·해운·비료 등 섹터가 동반 급등하는 패턴을 관찰함. 이벤트→섹터별 수혜 후보 도출이 유효함을 확인.
  • 태그: 데이터패턴, 금융, 도메인인사이트

  • 📚 [교훈] 정보 정정의 빠른 반영과 로그 기록 필요

  • 08:15에 공개 불가로 기록했다가 08:16에 공개 확인으로 정정한 사례에서, 문서·결정 로그를 즉시 업데이트하고 정정 내역을 남기는 절차가 중요함이 드러남. 정정 흐름을 표준화할 필요.
  • 태그: 운영절차, 투명성, 문서화

2026-03-19

  • 🔧 [해결] 도메인 불일치인 기능은 전체 도입 대신 체리픽으로 제한
  • OMC 전체 도입이 도메인과 맞지 않을 때는 전체를 적용하지 않고, 해당 세션에서 가치가 큰 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현하여 비용과 복잡도를 줄임
  • 태그: 설계결정, 스코핑, 리스크관리

  • 🔧 [해결] 모델 특성에 따라 3단계 라우팅 배치

  • 심층 판단이 필요한 요청은 Opus에, 분석·디버깅은 Sonnet에, 빠른 실행은 Haiku에 할당하는 3단계 모델 라우팅으로 역할 분리와 지연 시간/정확도 균형을 맞춤
  • 태그: 아키텍처, 모델라우팅, 성능관리

  • ⚖️ [판단] A vs B 비교 시 도메인 적합성으로 결정

  • 새 기술(A)을 도입할지(B 유지)를 판단할 때는 '도메인 적합성'을 우선 기준으로 삼아, 도메인에 맞지 않으면 부분 채택(체리픽)이나 보류를 선택함
  • 태그: 의사결정기준, 도메인중심

  • 💡 [발견] 모델별 호출·지연 차이가 작업 배치에 영향

  • 세션 통계에서 모델별 호출 수와 평균 레이턴시가 뚜렷하게 달라(예: sonnet 낮은 레이턴시) 모델 선택과 작업 분배(심층 vs 빠른 작업)에 직접적인 영향을 줌
  • 태그: 관찰, 모니터링, 성능데이터

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 단일 에이전트 구조(8개)를 특정 역할 추가(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)로 12개로 확장하여 책임 분리와 전문화를 통해 유지보수성과 처리능력 향상
  • 태그: 워크플로우, 운영개선, 에이전트

  • 📚 [교훈] 문서 확인과 재확인이 중요하다

  • 08:14에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정한 사례는, 외부 정보(버전 공개 여부)는 바로 단정하지 말고 출처 재검증 후 기록해야 함을 보여줌
  • 태그: 실수와교훈, 정보검증

  • 🔧 [해결] 복구·리포트 자동화 → 테스트 우선 작성

  • recovery 리포트 자동화 작업을 시작할 때 먼저 recovery_collector 유닛/통합 테스트를 작성하여 자동화 코드의 신뢰성을 확보하고 배포 리스크를 낮춤
  • 태그: 테스트, 자동화, 신뢰성

2026-03-19

  • 🔧 [해결] 큰 프레임 도입 대신 핵심만 체리픽
  • 도메인 불일치로 전체 OMC 도입을 피하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 세 가지 기능만 선택적으로 적용해 작업 비용과 리스크를 줄임.
  • 태그: 체리픽, 범위절제, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 목적에 따라 계층화

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 작업 성격(심층 vs 분석 vs 실행)을 기준으로 모델/에이전트를 3단계로 라우팅함.
  • 태그: 모델선택, 라우팅, 작업분류

  • 💡 [발견] 로컬/공식 문서 불일치 가능성

  • 초기에 gpt-5.4-mini 공개 여부를 다르게 기록했다가 공식 문서 확인으로 정정됨 — 로컬 Codex 설정과 공식 공개 상태가 다를 수 있음.
  • 태그: 문서검증, 정정, 모델가용성

  • 🔄 [개선] 자동화 테스트·리포트 파이프라인 추가

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 도입해 수동 리포트·재현의존도를 낮추고 검증 주기를 단축함.
  • 태그: 테스트자동화, 리포트, 회복성

  • 📚 [교훈] 사용자 불만엔 빠른 사과와 범위 보완 제공

  • 사용자(Vg 관련) 항의에 대해 먼저 사과하고, 편향된 포커스(에너지에만 집중)를 인정한 뒤 방산·에너지·금·사이버보안 등 전 섹터 맵을 제공해 불만을 해결함.
  • 태그: 고객대응, 커뮤니케이션, 포괄적제공

  • 🔧 [해결] 프롬프트·호출 통계로 운영 안정성 모니터링

  • 총 호출·성공률·프롬프트·응답량·에러 수와 모델별 레이턴시를 정기 집계해 시스템 상태를 판단하고 모델별 역할·재할당을 결정함.
  • 태그: 모니터링, 운영지표, 모델관찰

  • 📚 [교훈] 초기 판단은 문서 근거로 재확인

  • 08:15에 공개 미확인으로 기록했다가 08:16에 공식 문서 확인 후 정정 — 의사결정 로그는 즉시 검증 가능한 근거(공식 문서 링크 등)를 남겨야 함.
  • 태그: 검증절차, 문서기록, 의사결정로그

2026-03-19

  • 🔧 [해결] 큰 기능은 체리픽으로 핵심만 도입
  • OMC 전체 도입이 도메인에 맞지 않을 때는 전체를 적용하지 않고, 도메인에 맞는 3가지 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현한다.
  • 태그: POC, 단계적도입, 효율

  • 🔧 [해결] 모델 역할에 따라 라우팅 및 에이전트 세분화

  • 작업 성격에 따라 모델을 역할별로 라우팅(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행)하고 에이전트를 확장해 각 역할에 맞게 처리 성능과 응답 시간을 최적화한다.
  • 태그: 아키텍처, 모델라우팅

  • ⚖️ [판단] 전체 도입 vs 핵심 체리픽은 도메인 적합성으로 판단

  • 새 프레임워크나 방식(OMC)을 도입할 때, 도메인이 맞지 않으면 전체 도입을 피하고 도메인 적합성을 기준으로 필요한 부분만 체리픽한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시와 호출비중 차이

  • 세션 통계에서 모델별 호출 횟수와 평균 레이턴시가 크게 달라(예: cliproxy/claude-sonnet-4-6은 호출 많고 지연 짧음, github-copilot/gpt-5-mini는 레이턴시 길음), 역할 배치에 따라 운영 비용과 응답성이 영향을 받는다.
  • 태그: 관찰, 성능모니터링

  • 🔄 [개선] 프롬프트·응답량 모니터링으로 안정성 관리

  • 세션별 프롬프트 총량·응답량·에러 수 추적을 통해 호출 성공률과 에러 추이를 지속 관찰하고, 모델 오버헤드 또는 에러 원인이 보이면 라우팅·구성(-m/--model, config.toml) 변경으로 대응한다.
  • 태그: 운영, 모니터링

  • 📚 [교훈] 공식 문서 확인은 되도록 즉시 재검증

  • 08:14에 공개 불가라 기록했다가 08:16에 문서상 공개 표기 확인으로 정정함. 외부 문서나 공식 출처는 변경/오류 가능성을 염두에 두고 즉시 재확인 프로세스를 둬야 한다.
  • 태그: 절차, 검증

  • 🔧 [해결] 자동화 스크립트 + 유닛 테스트로 리커버리 신뢰도 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛·통합 테스트를 병행해 장애 회복 보고와 동작을 자동화하고 신뢰도를 높인다.
  • 태그: 테스트, 자동화

  • 💡 [발견] 대화 응답은 도메인 편향을 만들 수 있음

  • 사용자 질문에서 특정 섹터(예: Vg)를 놓친 점을 인정하며, LLM 또는 응답 로직이 관심 있는 섹터에 편향될 수 있어 완전성 체크 필요성을 확인함.
  • 태그: 사용자피드백, 편향

2026-03-19

  • 🔧 [해결] 모델별로 역할 분리하여 효율화
  • 복합 작업을 단일 모델에 맡기지 않고 Opus/Sonnet/Haiku처럼 모델별로 '심층 판단/분석·디버깅/빠른 실행' 역할을 나눠 라우팅하면 호출 횟수·지연을 줄이고 성공률을 유지할 수 있다.
  • 태그: 모델라우팅, 효율화, 아키텍처

  • 🔧 [해결] 체리픽으로 범위 축소 후 단계적 도입

  • 전체 OMC 도입 대신 도메인 적합한 핵심 3가지를 선별해 먼저 구현(체리픽)하고 이후 필요하면 확대하는 방식으로 비용과 리스크를 낮춤.
  • 태그: 범위관리, 리스크저감, 점진도입

  • ⚖️ [판단] 모델 선택은 작업 성격 기준으로

  • 심층 판단은 지연이 허용되는 고비용 모델, 반복·분석 작업은 중간 모델, 저지연 실행은 경량 모델을 우선 배치한다는 기준으로 모델을 선택함.
  • 태그: 판단기준, 모델선택

  • 💡 [발견] 모델별 레이턴시·호출 특성 차이 관찰

  • 동일 세션에서 github-copilot/gpt-5-mini는 레이턴시가 길고 대비해 claude-sonnet 계열은 평균 레이턴시가 짧아 작업 유형별로 성능 차이가 있음이 확인됨.
  • 태그: 관찰, 성능

  • 🔄 [개선] preemptive-compaction 훅으로 리소스 관리

  • preemptive-compaction 스크립트를 도입해 세션·프롬프트 규모를 사전에 정리함으로써 호출 성공률·응답 품질을 보호하는 워크플로우 개선을 적용함.
  • 태그: 자동화, 리소스관리, 워크플로우

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분화

  • 기능별 에이전트를 8→12로 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)하여 책임을 작게 쪼갬으로써 동시 작업과 전문성 향상 달성.
  • 태그: 조직화, 확장

  • 📚 [교훈] 문서·공식 확인 후 결정 수정 필요

  • 08:15에 공개 불가로 기록했다가 08:16에 공식 문서에서 공개 표기가 확인되어 정정한 사례처럼 외부 문서 상태는 재확인·재기록 프로세스를 둬야 함.
  • 태그: 검증, 절차, 실수교정

  • 🔧 [해결] 자동 리포트·테스트로 회복력 확보

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 병행 작성해 장애 발생 시 자동 수집·리포트 및 검증을 빠르게 수행하도록 함.
  • 태그: 복구, 테스트, 자동화

  • 💡 [발견] 대화형 응답은 도메인 편향이 생김

  • Q&A에서 '에너지만 파고 있었다'는 응답 실수에서 보이듯 특정 관심사 편중이 사용자 응답 누락을 초래하므로 응답 범위 점검이 필요함.
  • 태그: 사용자응답, 편향

  • 📚 [교훈] 프롬프트·호출 통계는 운영 의사결정 근거

  • 총 호출·성공률·프롬프트·응답량 통계를 주기적으로 측정하면 모델별 성능·비용·신뢰도 판단에 실증적 근거로 사용 가능함.
  • 태그: 메트릭, 운영

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 핵심만 도입
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체 적용 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 3가지만 선택해 구현하여 비용과 리스크를 줄임.
  • 태그: 체리픽, 범위조정, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리

  • 에이전트 기능을 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 역할 기준으로 라우팅하면 각 모델 강점을 살려 성능과 응답시간을 최적화할 수 있다.
  • 태그: 모델선택, 아키텍처, 성능

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키를 통해 로컬에서 모델을 변경할 수 있음이 확인되어, 문서 공개 시점과 무관하게 로컬 테스트가 가능함.
  • 태그: 도구능력, 운영

  • 🔄 [개선] 에이전트 확장은 목적별로 소수단위 추가

  • 한번에 많은 에이전트를 늘리기보다 analyst, report-writer, pipeline-debugger-deep 등 목적에 맞는 소수 에이전트를 추가해 관리와 책임을 명확히 함.
  • 태그: 운영모델, 확장전략

  • 🔧 [해결] 회복 리포트 자동화 → 테스트 병행

  • recovery 리포트 자동화 스크립트를 만들고 곧바로 유닛/통합 테스트(recovery_collector 유닛/통합 테스트)를 작성해 자동화 안정성을 확보함.
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 성능-비용 트레이드오프 관찰

  • 모델별 호출 수·성공률·평균 레이턴시를 기록해 높은 호출량과 낮은 레이턴시 모델을 선호하거나, 비용·성능 기준으로 라우팅 정책을 조정할 수 있음.
  • 태그: 관측, 모니터링

  • 📚 [교훈] 정보 정정은 빠르게 로그에 반영하라

  • 08:15에 비공개로 기록된 사실을 08:16에 정정하여 문서(의사결정 로그)에 반영함 — 확인된 변경은 즉시 로그에 남겨 추후 혼선·중복 호출을 줄여야 함.
  • 태그: 기록, 투명성, 운영절차

  • ⚖️ [판단] 도메인·전문성 불일치 시 전체 도입 금지

  • 플랫폼이나 방법이 코드 개발 전문성과 맞지 않으면 전체 도입을 피하고 도메인에 맞는 부분만 선택적으로 적용해야 효과적임.
  • 태그: 거버넌스, 도메인적합성

2026-03-19

  • 🔧 [해결] 대상 범위는 체리픽해서 필요한 것만 도입
  • 전체 OMC 도입 대신 도메인 적합성을 따져 핵심 3가지만 선별(cherry-pick)해 구현함으로써 불필요한 복잡성·작업 낭비를 막음. 도입 전 도메인 적합성 평가 → 우선순위 3가지 선정 → 선택적 구현 흐름.
  • 태그: 체리픽, 범위관리, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할별 능력 기준으로 분할

  • 실행 속도·판단 깊이·작업 성격에 따라 모델/에이전트를 역할별로 라우팅(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행). 작업 특성에 맞는 모델을 매핑해 처리 효율과 응답 품질을 동시에 높임.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 모델별 레이턴시·성공률 편차가 작업 설계에 영향

  • 로그에서 모델별 호출 수·성공률·평균 레이턴시가 상이함을 확인(예: sonnet 낮은 레이턴시, gpt-5-mini 일부 실패). 따라서 대규모/반복 호출 설계 시 레이턴시·신뢰도를 고려해 모델을 분배해야 함.
  • 태그: 관찰, 성능계획, 신뢰성

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 에이전트(8개)를 12개로 확장하며 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 책임을 분리. 이렇게 역할을 세분화하면 병렬 처리와 전문화된 검증(예: 심층 디버깅)이 쉬워짐.
  • 태그: 조직구조, 전문화, 확장

  • 🔧 [해결] 사전 압축(preemptive compaction)으로 자원·프롬프트 관리

  • 프롬프트/상태를 미리 압축하는 훅(preemptive-compaction.sh)을 도입해 LLM 호출 전후의 데이터 크기와 비용을 줄이고 호출 성공률·속도를 개선함. 대용량 프롬프트 환경에서 안정성 확보용 패턴.
  • 태그: 프롬프트관리, 비용절감, 성능

  • 📚 [교훈] 공식 문서 확인 전까지 단정하지 말 것

  • 08:15에 '공개 확인 불가'로 기록했다가 08:16에 정정해 공개됨을 확인함. 외부 정보(공식 문서 등)는 즉시 확증 가능한 소스를 확인하고 의사결정 로그를 남겨야 혼선과 재작업을 줄일 수 있음.
  • 태그: 검증, 문서화, 정확성

  • 🔄 [개선] 자동화 스크립트 + 유닛/통합 테스트 병행 개발

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector의 유닛/통합 테스트를 작성해 자동화 코드의 신뢰도를 높임. 자동화 개발 시 테스트를 병행하는 워크플로우로 회귀·운영 오류를 줄임.
  • 태그: 테스트, 자동화, CI

  • 🔧 [해결] 사용자 질문엔 사과→요약→구조화된 응답

  • 대화 응답에서 실수 인식 시 먼저 사과하고(짧게), 관련 섹터 맵과 핵심 포인트(표/목록)로 정리해 제공함. 사용자 불만 처리에 대한 일관된 패턴으로 신뢰 회복과 정보 전달을 동시에 달성.
  • 태그: 커뮤니케이션, UX, 템플릿

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 체리픽으로 우선 도입
  • OMC 전체 도입이 도메인에 맞지 않으면 전체 적용 대신 '핵심 3가지만 체리픽'하여 구현 리스크·비용을 낮추고 효과를 검증한 뒤 확장한다.
  • 태그: 프로젝트범위, 리스크관리

  • 🔧 [해결] 모델별 역할 분리로 작업 최적화

  • 모델 라우팅을 통해 Opus는 심층 판단, Sonnet은 분석·디버깅, Haiku는 빠른 실행 등으로 역할을 분리해 각 모델 강점을 살려 호출 효율과 응답 품질을 개선한다.
  • 태그: LLM운영, 아키텍처

  • ⚖️ [판단] A vs B 판단은 '도메인 적합성'으로 결정

  • 새 기법(예: OMC) 도입 여부를 판단할 때 기술적 완성도보다 해당 도메인과의 적합성을 우선 기준으로 삼아 제한적 적용을 결정했다.
  • 태그: 의사결정기준

  • 💡 [발견] 프롬프트·응답 비율로 비용/효율 지표 파악

  • 세션별 프롬프트 총량과 응답 총량, 호출 수·성공률·평균 레이턴시를 모니터링하면 모델별 비용·성능 병목과 최적화 포인트가 드러난다.
  • 태그: 측정, 운영지표

  • 🔄 [개선] preemptive-compaction 훅으로 사전 정리 자동화

  • preemptive-compaction 스크립트를 도입해 작업 전후 상태를 자동 정리·압축하면 반복 호출로 인한 누적 비용과 상태혼잡을 줄일 수 있다.
  • 태그: 자동화, 성능

  • 🔄 [개선] 에이전트 확장 시 역할명과 책임을 명확히 분리

  • 기능별 에이전트(analyst, report-writer, pipeline-debugger-deep 등)를 추가할 때 각 에이전트의 책임·입출력 포맷을 명확히 정의해 확장 후 충돌을 줄인다.
  • 태그: 조직화, 확장성

  • 📚 [교훈] 초기 문서 확인 후 결정 번복을 줄여라

  • 08:14에 공개 불가로 기록했다가 08:16에 공개 확인으로 정정한 사례에서, 공식 문서 재확인 프로세스를 도입해 정보 오류와 중복 노력을 줄여야 함이 드러났다.
  • 태그: 검증절차, 품질보증

  • 💡 [발견] 시장 이벤트(뉴스)와 섹터별 민감도 연결

  • 전쟁 관련 뉴스(무기 증산·가스전 피격 등)는 방산·에너지·비료·금·사이버보안처럼 특정 섹터에 즉각적·차별적 영향을 주며, 이를 맵 형태로 정리하면 추천·리스크 설명에 유용하다.
  • 태그: 도메인지식, 데이터연결

2026-03-19

  • 🔧 [해결] 특정 도메인 불필요 시 핵심만 체리픽
  • 전체 OMC 도입이 불필요하다고 판단될 때, 도메인에 맞는 핵심 기능 3가지만 선별해 체리픽(모델별 에이전트 분리, learner 추출, preemptive-compaction 등)해 빠르게 적용한다.
  • 태그: 의사결정, 간소화, 우선순위

  • 🔧 [해결] 모델 특성별 라우팅으로 역할 분담

  • 심층 판단/분석·디버깅/빠른 실행 등 모델 특성(예: Opus/Sonnet/Haiku)에 따라 에이전트 역할을 3단계로 라우팅하여 처리 부하와 응답 품질을 최적화한다.
  • 태그: 아키텍처, 모델라우팅, 성능

  • ⚖️ [판단] 도메인 적합성으로 도입 범위 결정

  • 새 방식(예: OMC)을 전체 도입할지 결정할 때, 팀의 도메인 적합성을 기준으로 범위를 제한하거나 전체 도입을 배제한다.
  • 태그: 의사결정, 도메인

  • 💡 [발견] LLM 호출 통계로 신뢰·지연 분석

  • 모델별 호출 수·성공률·평균 레이턴시를 기록해 어떤 모델이 빠르고 안정적인지 파악하고, 라우팅·대체 전략에 반영한다.
  • 태그: 관찰, 모니터링, 메트릭

  • 🔄 [개선] 작은 자동화 스크립트부터 단계적 테스트

  • recovery 리포트 자동화 → 유닛/통합 테스트 작성 순으로 자동화 작업을 단계적으로 진행해 위험을 줄이고 검증을 강화한다.
  • 태그: 워크플로우, 테스트, 자동화

  • 💡 [발견] 문서·CLI 정정 후 기록 갱신

  • 초기 조사에서 얻은 정보(예: 모델 공개 여부)가 정정되면 해당 의사결정 로그를 업데이트하고 정확한 근거(OpenAI Models 문서, Codex CLI 옵션)를 명시한다.
  • 태그: 문서화, 정확성

  • 📚 [교훈] 빠른 결론보다 근거 확인 우선

  • 초기 답변(예: 모델 공개 여부)이 불확실하면 검증 후 정정하는 프로세스를 두어 혼란을 줄여야 함 — 사실 확인 루틴 필요.
  • 태그: 교훈, 검증

  • 🔧 [해결] 섹터별 요약으로 사용자의 관심사 대응

  • 사용자 요구(예: 특정 종목 문의)에 대해 섹터별 핵심 요약(수익률, 대표 종목, 핵심 이슈)을 제공해 빠르게 정보 요구를 충족시킨다.
  • 태그: 사용자 응대, 요약, 금융

  • 💡 [발견] 이벤트→원자재·섹터 연쇄 영향 파악

  • 사건(예: 가스전 피격)이 원자재(황) 공급 차질로 이어지고, 이는 비료·농업 섹터에 직접적 수혜를 주는 연결 고리를 기록해 투자 아이디어로 연결한다.
  • 태그: 연결관계, 도메인인사이트

  • 🔄 [개선] 모델 오버라이드·설정 표준화

  • 로컬 툴(Codex CLI 등)의 모델 오버라이드 옵션(-m/--model, config.toml)을 표준 운영 절차로 문서화해 모델 전환·재현성을 쉽게 한다.
  • 태그: 운영, 설정관리

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽해 작게 도입한다
  • OMC 전체 도입 대신 도메인 적합성 검토 후 핵심 3가지를 선택해 단계적으로 구현(모델별 에이전트 분리, learner 패턴, preemptive-compaction). 리스크가 큰 전면 적용을 피하고 빠른 가시성 확보.
  • 태그: 모듈화, 리스크완화, 단계적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 설정한다

  • 심층 판단에는 Opus, 분석·디버깅엔 Sonnet, 빠른 실행엔 Haiku처럼 모델의 강점(심층/분석/속도)으로 라우팅을 결정함.
  • 태그: 모델선택, 역할기반

  • 💡 [발견] 로컬 CLI는 모델 오버라이드를 지원한다

  • Codex CLI는 -m/--model 옵션과 config.toml의 model 키로 모델 변경을 지원해 환경에서 모델 전환이 가능함을 확인.
  • 태그: 도구기능, 운영

  • 🔧 [해결] 에이전트 확장은 역할 추가로 해결한다

  • 기능 확장이 필요할 때 기존 에이전트를 쪼개거나 새로운 역할(analyst, report-writer, pipeline-debugger-deep 등)을 추가해 책임을 분리하고 확장성 확보.
  • 태그: 아키텍처, 확장성

  • 🔄 [개선] 복구 리포트·테스트 자동화로 검증 속도 향상

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성하여 수동 검증을 줄이고 회복력 검증을 표준화함.
  • 태그: 테스트, 자동화

  • 💡 [발견] LLM 호출 통계로 운영 병목과 신뢰를 평가한다

  • 모델별 호출수·성공률·레이턴시를 수집해 높은 레이턴시 모델과 실패율을 식별하고 라우팅·캐싱·재시도 정책 개선에 활용.
  • 태그: 관찰성, 운영지표

  • 📚 [교훈] 부분적 정보로 결론 내리지 않는다—정정 절차를 둔다

  • 08:15에 gpt-5.4 mini 공개 불확실 기록 후 08:16에 정정으로 공개 확인. 초기 판단은 임시로 기록하고 근거 확인되면 빠르게 정정하는 프로세스가 필요함.
  • 태그: 절차, 정확성

  • 🔧 [해결] 도메인 미스매치면 전면 도입보다 전문 기능만 채택

  • OMC가 전체 도입에 부적절하다고 판단되면 해당 도메인에 맞는 핵심 기능만 체리픽해 적용함으로써 효율과 적합성 유지.
  • 태그: 도메인적합성, 선택적도입

2026-03-19

  • 🔧 [해결] 복잡한 기능은 핵심만 체리픽해서 부분 도입
  • 전체 OMC 방식을 한꺼번에 도입하지 않고 도메인 적합한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 리스크와 작업량을 줄였다.
  • 태그: 점진도입, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단(Opus)·분석·디버깅(Sonnet)·빠른 실행(Haiku) 등으로 모델 역할을 기준 삼아 라우팅하여 각 모델의 강점을 살리고 비용·레이턴시를 관리한다.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml의 model 키로 로컬에서 모델을 변경할 수 있음을 확인해 배포 방식과 실험 유연성이 확보됨.
  • 태그: 툴지원, 운영

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 8개 에이전트를 12개로 확장해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 특화 역할을 추가해 책임 분산과 전문화 진행.
  • 태그: 조직화, 스케일링

  • 🔧 [해결] preemptive-compaction으로 리소스 관리

  • preemptive-compaction 훅을 도입해 런타임/프롬프트 리소스 사용을 사전에 정리·압축함으로써 성능과 호출 성공률을 유지했다.
  • 태그: 성능, 리소스관리

  • 💡 [발견] 모델별 레이턴시·성공률 차이는 운영 판단 근거

  • 로그에서 모델별 호출수·성공률·레이턴시를 추적해 어떤 모델이 저지연·고신뢰인지 파악하여 라우팅 정책에 반영함.
  • 태그: 모니터링, 데이터기반결정

  • 📚 [교훈] 공식 자료 확인 후 의사결정 정정 필요

  • 초기에 gpt-5.4 mini 공개 여부를 불확실하게 기록했다가 공식 문서 확인 후 정정해 정보 출처 검증의 중요성을 재확인함.
  • 태그: 검증, 절차

  • 🔄 [개선] 작업 단위를 자동화 스크립트로 전환

  • recovery 리포트 자동화와 recovery_collector 유닛/통합 테스트 작성으로 수동 리포트 작업을 자동화하여 반복 작업을 줄이고 신뢰도를 높임.
  • 태그: 자동화, 테스트

  • ⚖️ [판단] 체리픽 우선순위는 도메인 적합성 기준

  • 기능 도입 여부는 ‘코드 개발 전문성’ 등 도메인 적합성으로 판단하여 비핵심은 배제하고 핵심만 채택함.
  • 태그: 우선순위, 도메인적합성

  • 🔧 [해결] 섹터 추천은 수혜요인 기반으로 카테고리화

  • 대화에서 전쟁 수혜주를 방산·에너지·금·사이버보안·해운·비료 등 수혜 요인(수요증가·안전자산·공급차질 등)별로 정리해 사용자에게 명확한 분류를 제공함.
  • 태그: 정보정리, 금융리서치

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 전체 도입 대신 체리픽 3가지만 적용
  • OMC 방식 전체 도입이 도메인(코드 개발)에 적합하지 않다고 판단되면, 필요한 기능만 선별(cherry-pick)해 구현한다. 이번 세션에서는 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 세 가지를 선택해 적용함으로써 비용·복잡도를 낮추고 목표 해결에 집중했다.
  • 태그: OMC, 체리픽, 비용절감

  • ⚖️ [판단] 모델 라우팅을 성능·역할 기준으로 분리

  • 여러 모델을 운영할 때 역할(심층 판단/분석·디버깅/빠른 실행)에 따라 라우팅 계층을 나눈다. 예: Opus는 심층 판단, Sonnet은 분석·디버깅, Haiku는 빠른 실행을 담당하도록 배치하여 응답속도와 기능 요구를 균형있게 맞춤.
  • 태그: 모델라우팅, 역할기반, 성능

  • 💡 [발견] 모델별 실제 레이턴시·성공률 차이가 라우팅 기준이 됨

  • 세션 통계에서 모델별 호출 수·성공률·평균 레이턴시가 다르게 관측되었다(예: sonnet 평균 레이턴시 낮음). 이 수치들을 근거로 어떤 모델에 어떤 역할을 맡길지 결정하면 전체 시스템 성능이 개선된다.
  • 태그: 계측, 성능지표, 라우팅

  • 🔄 [개선] 대규모 도입 대신 단계적·선택적 도입 워크플로우

  • 완전 도입(모든 기능 한꺼번에) 대신 먼저 핵심 항목만 선별해 구현하고, 이후 필요에 따라 확장하는 방식으로 워크플로우를 바꿨다. 이렇게 하면 위험·작업량을 줄이고 빠른 검증이 가능하다(예: OMC 전면 도입 대신 3가지 체리픽 적용).
  • 태그: 워크플로우, 점진적도입, 리스크관리

  • 📚 [교훈] 공식 문서 확인을 통한 사실 정정 루프 필요

  • 초기에 'gpt-5.4 mini 공개 확인 불가'로 기록했다가 곧바로 공식 문서에서 공개 표기를 확인해 정정했다. 외부 사실(특히 릴리스/가용성)은 즉시 공식 소스 재확인하고 정정 기록을 남기는 루프가 필요함.
  • 태그: 검증, 정정, 문서확인

  • 📚 [교훈] 실패·에러가 적더라도 비정상 호출(0% 성공 모델)은 배제

  • 통계에 일부 모델(gpt-5-mini, qwen2.5, openai-codex/gpt-5.4)이 0% 성공으로 기록됨. 성공률이 낮거나 호출 실패가 반복되는 모델은 라우팅에서 제외하거나 격리해 추가 원인분석을 수행해야 한다.
  • 태그: 신뢰성, 격리, 모니터링

2026-03-19

  • 🔧 [해결] 범위 좁혀 체리픽으로 도입
  • 전체 OMC 도입 대신 도메인 적합성 판단 후 관련성 높은 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 복잡성 절감
  • 태그: 체리픽, 범위관리, 비용절감

  • ⚖️ [판단] 기능 도입은 도메인 적합성으로 결정

  • 새 방법이나 프레임워크 도입 시 '도메인과의 적합성'을 우선 판단해 전체 도입 대신 부분 도입(혹은 제외)을 결정함 — 코드 개발 전문이면 일반적 OMC 전체 도입은 불필요
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델 라우팅으로 역할 분리 효과

  • 3단계 모델 라우팅(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)을 통해 작업 유형별로 모델 역할을 분리하면 효율과 응답속도 최적화 가능
  • 태그: 모델아키텍처, 라우팅, 역할분리

  • 🔄 [개선] 에이전트 수평 확장으로 책임 분리

  • 에이전트 수를 기존 8개에서 12개로 확장해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 명확히 분리함으로써 각 유닛의 책임 범위와 전문성 강화
  • 태그: 아키텍처개선, 책임분리, 확장

  • 🔧 [해결] 로컬 툴의 모델 오버라이드 활용

  • 공식 문서 혼선이 있을 때 로컬 Codex의 -m/--model 또는 config.toml의 model 키를 이용해 원하는 모델로 즉시 오버라이드하여 테스트·배포 문제 회피
  • 태그: 도구활용, 모델전환, 운영유연성

  • 💡 [발견] LLM 호출 통계로 신뢰·성능 인사이트 확보

  • 모델별 호출 수, 성공률, 평균 레이턴시를 정기적으로 수집하면 어떤 모델이 안정적이고 비용효율적인지 판단 가능(예: sonnet 낮은 레이턴시, 일부 모델은 0% 성공률로 배제 대상)
  • 태그: 측정, 관찰, 모델선택

  • 📚 [교훈] 정보 변경 발생 시 즉시 정정·기록

  • 08:15에 공개 여부 불확실로 기록했다가 08:16에 정정해 문서화한 사례 — 중요한 외부 정보는 확인 후 기록하되 변경이 생기면 즉시 정정 로그를 남기는 습관 필요
  • 태그: 정확성, 기록관행, 변경관리

  • 🔄 [개선] 복구 리포트 자동화와 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 작성해 자동화 신뢰도를 높이는 병행 개발 패턴 채택
  • 태그: 테스트, 자동화, 신뢰성

  • 🔧 [해결] 작업 우선순위는 작고 검증 가능한 단위로

  • 큰 도입이나 기능 추가 대신 검증 가능한 작은 단위(체리픽 3가지, 에이전트 확장, 스크립트 작성 등)를 우선 실행해 빠른 피드백 루프 생성
  • 태그: 작업우선순위, 작은배치, 피드백루프

  • ⚖️ [판단] 모델 선택시 성공률·레이턴시·호출량을 함께 고려

  • 단일 지표가 아니라 성공률, 평균 레이턴시, 호출량을 종합해 모델 활용 우선순위를 정함 — 예: 높은 호출량+낮은 레이턴시 모델을 우선 배치
  • 태그: 의사결정기준, 성능지표

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽 전략
  • 전체 OMC 도입이 불필요할 때는 도메인에 맞는 핵심 기능 세 가지만 골라(cherry-pick) 적용한다 — 복잡한 전면 도입보다 작은 목표부터 구현하여 가치와 적합성을 검증한다.
  • 태그: 적용전략, 범위제한

  • 🔧 [해결] 모델별 역할 분리로 효율화

  • 작업 특성에 따라 모델/에이전트를 분리(예: Opus=심층판단, Sonnet=분석·디버깅, Haiku=빠른실행)하면 지연·비용·정확성 균형을 맞출 수 있다.
  • 태그: 아키텍처, 모델라우팅

  • ⚖️ [판단] 기능 도입 판단은 도메인 적합성 기준

  • 새 방식 도입 여부를 평가할 때 '우리 도메인(전문성)과의 적합성'을 우선적인 판단 기준으로 삼는다 — 적합하지 않으면 전면 도입 대신 부분 채택을 선택한다.
  • 태그: 의사결정, 우선순위

  • 💡 [발견] 모델별 레이턴시·호출패턴 차이 관찰

  • 같은 작업에서 모델별 호출 수·평균 레이턴시가 크게 달라 비용·성능 특성이 모델 선택에 직접 영향한다(예: sonnet 빠름, gpt-5-mini 느림).
  • 태그: 관찰, 성능측정

  • 🔄 [개선] 프롬프트·응답량 모니터링으로 운영 안정화

  • 세션별 프롬프트 총량과 응답량, 성공률을 정기 집계하여 모델 호출 패턴·에러율을 추적하면 문제 지점(오류 모델, 오역 등)을 빠르게 찾을 수 있다.
  • 태그: 모니터링, 운영

  • 🔧 [해결] 사전(Preemptive) 컴팩션 훅으로 리소스 관리

  • preemptive-compaction 같은 훅 스크립트를 도입해 세션·에이전트 상태를 사전 정리하면 장기 실행 중 리소스 누수·지연을 줄일 수 있다.
  • 태그: 성능개선, 운영자동화

  • 📚 [교훈] 초기 과대적용의 위험 — 소규모 검증 우선

  • 처음에 전체 OMC를 전면 적용하려다 도메인 불일치로 비효율 발생 → 이후 체리픽 및 단계적 적용으로 수정. 앞으로는 신규 프레임워크 도입 전에 소규모 파일럿을 먼저 권장.
  • 태그: 실수와교훈, 리스크관리

  • 💡 [발견] 업데이트되는 공개정보는 빠르게 정정 필요

  • 같은 날 문서 공개 여부(예: gpt-5.4-mini) 관련 로그가 정정됨 — 외부 문서 확인 결과 변경 시 즉시 세션 의사결정 로그를 업데이트해야 혼선 방지 가능.
  • 태그: 문서관리, 정보정정

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 전체 도입 대신 체리픽으로 핵심만 적용
  • OMC 전면 도입이 도메인에 맞지 않을 때 전체를 가져오지 않고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 같은 3가지 핵심만 선별해 구현하여 비용과 복잡도를 낮춤
  • 태그: 체리픽, 도메인적합성, 단계적적용

  • ⚖️ [판단] 모델 선택은 역할 기반 라우팅으로 결정

  • 심층 판단에는 Opus, 분석·디버깅엔 Sonnet, 빠른 실행엔 Haiku처럼 모델 성능 특성(심층성 vs 속도)을 기준으로 3단계 라우팅을 적용해 작업을 분배함
  • 태그: 모델라우팅, 역할기반, 성능기준

  • 💡 [발견] 로컬 CLI/config로 모델 오버라이드 가능

  • Codex CLI는 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델을 변경할 수 있어 공식 공개 여부와 별개로 실험 환경 구성 가능
  • 태그: 툴링, 모델오버라이드, 운영편의성

  • 🔄 [개선] 사전정리(preemptive-compaction) 훅으로 프롬프트·응답 규모 관리

  • preemptive-compaction 스크립트/훅을 도입해 프롬프트 총량과 응답량을 관리하면 LLM 호출 비용·레이턴시를 줄이고 성공률을 유지하기 쉬움
  • 태그: 비용절감, 프롬프트관리, 운영자동화

  • 🔧 [해결] 에이전트 수평 확장으로 역할 세분화

  • 기능별 에이전트를 8개에서 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 책임을 분리함으로써 복잡한 파이프라인 문제를 병렬·전문화해 처리
  • 태그: 에이전트설계, 수평확장, 책임분리

  • 🔄 [개선] 리커버리 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector에 대한 유닛·통합 테스트를 추가해 장애 대응과 검증을 자동화함
  • 태그: 복구자동화, 테스트, 신뢰성

  • 📚 [교훈] 공식 문서 확인을 먼저 하지 않아 정정 발생

  • 초기에 gpt-5.4-mini 공개 여부에 대해 잘못 판단했다가 공식 Models 문서를 확인하고 정정함. 중요한 사실은 공식 문서/근원 자료로 재확인해야 함
  • 태그: 검증절차, 문서확인, 오류수정

  • 💡 [발견] LLM 호출 통계로 운영 상태를 빠르게 파악

  • 총 호출 수, 성공률, 프롬프트·응답 총량, 모델별 호출·레이턴시를 주기적으로 기록하면 모델 이상(성공률 저하·오류 증가)을 조기 감지하고 대응 우선순위를 정하기 쉬움
  • 태그: 모니터링, 지표기반운영, 관찰성

2026-03-19

  • 🔧 [해결] 거대한 프레임워크는 체리픽으로 축소 적용
  • OMC 전체 도입이 부적절할 때 도메인에 맞는 핵심 기능 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 복잡도를 줄임.
  • 태그: 체리픽, 범위관리, 비용절감

  • ⚖️ [판단] 모델 라우팅은 목적별로 분리

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)처럼 작업 성격에 따라 모델/에이전트를 3단계로 라우팅하여 성능과 효율을 최적화함.
  • 태그: 모델선택, 라우팅, 성능

  • 💡 [발견] CLI·config로 로컬 모델 오버라이드 가능

  • Codex CLI의 -m/--model 옵션과 config.toml의 model 키를 통해 로컬 환경에서 모델을 변경할 수 있음을 확인함(문서 확인→정정 과정을 통해 확정).
  • 태그: 환경설정, 모델오버라이드

  • 🔄 [개선] 에이전트 확장은 역할 분화로 수행

  • 기존 8개에서 12개로 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 세분화해 책임과 기능을 명확히 함으로써 유지보수성과 전문성을 높임.
  • 태그: 조직구조, 역할분화, 확장

  • 🔧 [해결] 회복 리포트 자동화로 반복작업 제거

  • recovery 리포트 자동화 스크립트 및 recovery_collector 유닛/통합 테스트를 도입해 수동 리포트 작성과 검증 부담을 줄임.
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 안정성과 비용 지표 확보

  • 총 호출·성공률·프롬프트/응답 총량·에러 수와 모델별 평균 레이턴시를 지속 측정해 운영 안정성과 비용/성능 트레이드오프를 파악함.
  • 태그: 관측, 모니터링, 운영지표

  • 📚 [교훈] 초기 응대 실수는 사과 후 포괄적 자료로 보완

  • 사용자 질문(Vg 관련)에서 특정 섹터만 언급해 누락이 발생 → 즉시 사과하고 전쟁 수혜주 전체 맵을 제공해 신뢰 회복 및 정보 보완을 수행함. 앞으로는 응대 전 범위 체크를 권장.
  • 태그: 커뮤니케이션, 대응패턴, 사용자신뢰

  • 📚 [교훈] 문서 기반 확인 후 정정 절차를 두라

  • 초기에는 gpt-5.4-mini 공개 확인 불가로 기록했다가 공식 문서 재확인으로 정정함 → 의사결정·기록에는 문서 근거 확인 후 정정 로그를 남기는 절차가 필요함.
  • 태그: 검증절차, 기록

  • 🔄 [개선] 작업별 전용 에이전트와 후킹 스크립트 조합

  • 특정 작업(예: vault-inspector-deep, quick-search)에 전용 에이전트를 만들고 preemptive-compaction 같은 훅 스크립트를 연결해 자동 전처리·유지보수 흐름을 개선함.
  • 태그: 워크플로우, 훅, 에이전트

  • ⚖️ [판단] 부분적 자동화 도입 기준은 실패·비용·전문성

  • 완전 자동화 대신 우선 작은 자동화(체리픽)→성공률·에러·프롬프트 비용을 관찰해 단계적 확장하는 방식으로 리스크를 관리함.
  • 태그: 자동화정책, 리스크관리

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽해 부분만 도입
  • 전체 OMC 도입 대신 도메인에 맞는 핵심 3가지를 선별(cherry-pick)하여 구현함으로써 개발 비용과 불필요한 범위 확대를 방지했다. 적용 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction만 채택.
  • 태그: 범위관리, 효율화

  • 🔧 [해결] 모델 역할을 단계별로 분리해 라우팅

  • 모델 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할·단계로 분리하여 요청 특성에 따라 적절한 모델로 자동 분배함으로써 처리 품질과 응답속도 균형을 맞춤.
  • 태그: 아키텍처, 모델라우팅

  • ⚖️ [판단] 도입 여부는 도메인 적합성으로 결정

  • 새 프레임워크나 방법론 도입 시 '팀/코드의 전문성'과 '도메인 적합성'을 기준으로 전면 도입 vs 부분 채택을 결정한다(예: OMC는 도메인 미일치로 부분 채택).
  • 태그: 의사결정기준, 범위설정

  • 💡 [발견] 로컬 툴은 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 오버라이드를 지원한다는 사실을 확인하여 로컬 환경에서 모델 전환이 가능함을 발견함.
  • 태그: 도구능력, 운영

  • 💡 [발견] 모델별 레이턴시·성공률 편차 관찰

  • 같은 작업군에서 모델별 호출 수·평균 레이턴시·성공률이 크게 다름(예: cliproxy/claude-sonnet-4-6이 짧은 레이턴시 다수 호출), 이를 통해 모델 선택이 성능에 직접 영향됨을 확인.
  • 태그: 성능관찰, 모델선택

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 에이전트를 8→12개로 늘려 분석/리포트/디버깅/크론 진단 등 책임을 분리함으로써 작업 병렬성과 책임 분명화를 개선함.
  • 태그: 조직구조, 스케일링

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅으로 비용 절감

  • preemptive-compaction 스크립트를 훅으로 추가해 미리 데이터·프롬프트를 압축 처리하여 LLM 호출 비용과 프롬프트 길이 문제를 완화함.
  • 태그: 비용절감, 프롬프트엔지니어링

  • 📚 [교훈] 정정·추가 확인 절차의 중요성

  • 08:14에 gpt-5.4 mini 공개 확인 불가로 기록했다가 08:16에 정정 확인이 나옴 — 외부 문서의 변경 가능성을 고려해 초기 판단은 '확인중'으로 남기고 추후 업데이트 절차를 표준화해야 함.
  • 태그: 작업프로세스, 신뢰도

  • 📚 [교훈] LLM 호출 통계로 건강 감시

  • 총 호출 수·성공률·에러 수·프롬프트·응답량 등 지표를 주기적으로 모니터링하면 모델 품질 저하·오류 패턴·비용 급증을 조기에 탐지할 수 있음.
  • 태그: 관찰성, 모니터링

  • 🔧 [해결] 질문 오류(대화형 응답 불만)엔 섹터 맵으로 대응

  • 사용자 불만('Vg 소개 안 해줌')에 대해 단일 종목 답변 대신 섹터별 정리(방산·에너지·금·사이버보안·해운·비료 등)로 맥락을 제공하여 문제를 해소함—질문이 부분적일 때 전체 맥락 제공 전략.
  • 태그: 사용자응대, 정보구성

2026-03-19

  • 🔧 [해결] 문제별 모델 라우팅으로 처리 성능 최적화
  • 업무 성격에 따라 모델 라우팅을 3단계로 나눔 — Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행). 특정 문제 유형을 적절한 모델군에 매핑해 처리 지연과 비용을 줄임.
  • 태그: 모델라우팅, 성능, 비용절감

  • 🔧 [해결] 체리픽 방식으로 불필요한 도입 회피

  • 전체 OMC 도입 대신 도메인 적합성 고려하여 유용한 기능 3가지만 골라 적용(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 범위 줄여 빠른 가치 실현.
  • 태그: 체리픽, 범위관리, 빠른실행

  • ⚖️ [판단] 도입 여부는 도메인 적합성으로 결정

  • 새 프레임워크나 방법론 도입 시 전체 채택 대신 '도메인 적합성'을 기준으로 판단 — 도메인과 맞지 않으면 부분 적용 또는 미적용.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시 차이가 작업 유형에 영향

  • 같은 작업군에서 모델별 평균 레이턴시가 다름(예: cliproxy/claude-sonnet-4-6가 낮은 레이턴시). 복잡도와 응답시간 요구에 따라 모델 선택 필요.
  • 태그: 성능관찰, 모델선택

  • 🔄 [개선] 프롬프트·호출 통계 수집으로 안정성 모니터링

  • 세션별 총 호출, 성공률, 프롬프트/응답 총량, 에러 수 같은 지표를 꾸준히 수집해 안정성·비용·품질을 정량적으로 판단하도록 워크플로우에 포함함.
  • 태그: 관찰가능성, 모니터링, 품질지표

  • 🔧 [해결] 자동화·스크립트로 반복 작업 표준화

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛 테스트 작성처럼 반복되는 리포트·회복 절차는 스크립트화해 수동 실수를 줄이고 재현성을 높임.
  • 태그: 자동화, 테스트

  • 💡 [발견] 문서 정정 후 의사결정 변경이 필요할 수 있음

  • 같은 날 문서(공식 Models 문서)에 대한 확인이 정정되어 의사결정(모델 공개 여부)이 바뀜 — 외부 문서 의존 시 변경 가능성을 항상 염두에 둬야 함.
  • 태그: 문서관리, 리스크

  • 📚 [교훈] 작업 범위는 작게 잡고 검증 후 확대하라

  • OMC 전체 도입 대신 우선 3가지 체리픽으로 실험하고, 성공 시 확장하는 방식이 효율적이었다 — 큰 도입은 비용과 맞지 않으면 실패 리스크가 큼.
  • 태그: 실험적접근, 리스크관리

  • ⚖️ [판단] 모델 오버라이드는 로컬 도구에서 우선 고려

  • 공식 공개 시점 불명확할 때 로컬 Codex의 -m/--model 및 config.toml 모델 키로 우회 가능함 — 배포·테스트 관점에서 로컬 오버라이드가 실용적 판단 기준이 됨.
  • 태그: 운영결정, 백업옵션

  • 📚 [교훈] 지표 기반 판단이 의사결정 신뢰도를 높임

  • 호출 성공률, 에러 수, 프롬프트·응답 총량 같은 수치로 상황을 판단하니 잘못된 추정(예: 모델 공개 여부)에 따른 혼선이 줄어들고 수정도 빨라졌음.
  • 태그: 데이터중심, 운영교훈

2026-03-19

  • 🔧 [해결] 특정 기능만 체리픽해서 도입
  • 전체 OMC 도입 대신 도메인 적합성에 따라 필요한 기능 3가지만 선별(cherry-pick)해 구현 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction을 선택해 적용함.
  • 태그: 최소화도입, 체리픽, 우선순위

  • 🔄 [개선] 모델 라우팅을 역할별로 3단계 분리

  • 요구에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델/에이전트를 분리해 라우팅해 처리량과 응답 특성 최적화.
  • 태그: 아키텍처, 모델라우팅

  • 🔧 [해결] 작업별 전용 에이전트 확장

  • 필요한 책임을 분리해 에이전트 수를 확장(8→12)하고 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 전용 역할을 추가해 담당 범위를 명확히 함.
  • 태그: 책임분리, 스케일링

  • ⚖️ [판단] 기술 도입 판단은 도메인 적합성 기준 사용

  • 새 기술(OMC 등)을 도입할 때 '코드 개발 전문성 vs 도메인 적합성'을 비교해, 도메인에 맞지 않으면 전체 도입 대신 선별 적용을 택함.
  • 태그: 도입기준, 비용편익

  • 💡 [발견] LLM 호출 성공률·레이턴시로 모델 역할 평가

  • 모델별 호출 횟수·성공률·평균 레이턴시 통계를 수집해 각 모델의 적합한 역할(예: 심층 판단 vs 빠른 실행)을 결정하는 근거로 삼음.
  • 태그: 측정기반, 모델선택

  • 🔄 [개선] 로컬 CLI로 모델 오버라이드 지원 확인 후 사용

  • Codex CLI의 -m/--model 및 config.toml 모델 키를 이용해 로컬에서 모델을 쉽게 바꿀 수 있음을 확인하고, 현장 테스트와 롤아웃 계획에 반영함.
  • 태그: 운영편의, 테스트

  • 📚 [교훈] 문서 확인 후 의사결정 정정하기

  • 초기에는 공개 여부를 확인하지 못했으나 공식 문서 재확인으로 gpt-5.4-mini 공개를 확인해 의사결정을 정정 — 중요한 사실은 문서 근거로 재검증해야 함.
  • 태그: 검증, 정정절차

  • 🔧 [해결] 복구 리포트 자동화 및 테스트 우선 구현

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 우선 진행해 장애 대응 파이프라인을 빠르게 확보함.
  • 태그: 자동화, 테스트주도

  • 💡 [발견] 세션 로깅으로 작업·결정 추적

  • 세션 로그에 완료 작업, 의사결정 로그, 수정 파일 목록, LLM 호출 통계를 명시해 추후 재현·분석에 필요한 근거를 남김.
  • 태그: 감사로그, 재현성

2026-03-19

  • 🔧 [해결] 문맥에 맞는 기능만 체리픽해서 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 핵심 유용 기능 3가지를 선택해 부분적으로 적용(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 비용·적합성 낮을 때 전체 도입 대신 체리픽으로 해결.
  • 태그: 체리픽, 범위절제, 비용효율

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 성능·목적에 따라 라우팅 기준을 삼음: 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku로 나눠 모델 역할을 정의하여 판단 기준으로 사용.
  • 태그: 모델선택, 역할기반

  • 💡 [발견] 로컬 도구는 모델 오버라이드 지원

  • Codex CLI는 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함 — 배포 환경에서 로컬 설정으로 모델 전환 가능.
  • 태그: 툴지원, 운영설정

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 8개 에이전트를 12개로 늘려 전문화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)를 통해 책임 분리와 작업 병렬화 개선.
  • 태그: 아키텍처, 스케일링

  • 🔧 [해결] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛·통합 테스트를 병행해 자동화 신뢰성을 확보하고 회귀를 줄임.
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 안정성·병목 파악

  • 모델별 호출 수, 성공률, 평균 레이턴시를 기록해 어떤 모델이 비용·지연·성공률 측면에서 유리한지 판단할 근거를 확보함(예: sonnet 레이턴시 짧음).
  • 태그: 관찰성, 계측

  • 📚 [교훈] 문서 확인 후 판단을 정정하라

  • 초기에 gpt-5.4-mini 공개 여부를 확인하지 못했다가 공식 문서를 재검증해 정정한 사례 — 중요한 공개·정책 변경은 문서 2차 확인 루틴을 둬야 함.
  • 태그: 검증절차, 실수교정

  • ⚖️ [판단] 문제 범위가 도메인 적합성보다 우선이면 부분 적용

  • 도메인이 맞지 않는 대규모 프레임워크는 전면 도입을 피하고, 코드 개발에 적합한 작은 기능만 선별 적용하는 것을 우선 판단 기준으로 삼음.
  • 태그: 도메인적합성, 범위결정

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 핵심만 체리픽하여 적용
  • OMC 전체 도입이 도메인과 맞지 않을 때는 전체 적용 대신 코드 개발에 맞는 3가지 핵심 기능만 선별(cherry-pick)해 적용함으로써 불필요한 작업을 줄이고 효과를 보장했다.
  • 태그: 적용전략, 범위결정, 효율화

  • 🔧 [해결] 모델별 역할 분리로 라우팅 최적화

  • 작업 성격에 따라 Opus/ Sonnet/ Haiku처럼 모델(에이전트)을 세분화(심층 판단·분석·빠른 실행)하여 작업을 라우팅함으로써 응답 속도와 판단 품질을 동시에 개선했다.
  • 태그: 아키텍처, 모델선택, 성능

  • ⚖️ [판단] A vs B 비교 시 도메인 적합성으로 판단

  • 새 기술이나 전체 도입 여부를 결정할 때는 ‘도메인 적합성(해당 팀/업무와의 정합성)’을 우선 기준으로 삼아 전체 도입 대신 부분 적용을 선택했다.
  • 태그: 의사결정기준, 도메인

  • 💡 [발견] 모델별 레이턴시·호출 패턴의 작업 적합성 연결

  • 통계에서 모델별 평균 레이턴시와 호출량을 관찰하여 특정 작업(심층 판단 vs 빠른 실행)에 어떤 모델이 더 적합한지 경험적으로 연결시켰다(예: sonnet이 낮은 레이턴시·대량 호출에 적합).
  • 태그: 관찰, 성능측정

  • 🔄 [개선] 사전 압축 스크립트(preemptive-compaction) 도입

  • 프롬프트/데이터 양이 클 때 사전적으로 컴팩션하는 훅을 추가해 LLM 호출 부담을 줄이고 응답 일관성을 개선했다(파일·스크립트로 구현).
  • 태그: 워크플로우, 비용절감, 프롬프트관리

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리 강화

  • 기능별 에이전트를 8개에서 12개로 늘려 역할을 더 세분화(예: pipeline-debugger-deep, cron-doctor-deep)함으로써 책임 경계와 전문성을 높였다.
  • 태그: 조직, 스케일링

  • 📚 [교훈] 공식 문서 확인은 반복적 갱신 필요

  • 초기에 gpt-5.4 mini 공개 여부를 확인할 때 상이한 로그(확인 불가 → 정정) 발생: 외부 공개 정보는 즉시 재확인하고 기록해 의사결정 혼선을 방지해야 한다.
  • 태그: 검증절차, 정보신뢰도

  • 💡 [발견] 시장·이벤트(전쟁 등)는 특정 섹터 수혜로 직결

  • 대화 로그에서 전쟁 관련 이벤트는 방산·에너지·사이버보안·해운·비료 등 특정 섹터의 급등으로 연결됨을 정리, 이벤트→섹터 매핑이 투자 리서치의 유용한 패턴임을 보여줌.
  • 태그: 도메인지식, 인사이트맵

2026-03-19

  • 🔧 [해결] 문제별 모델 분리로 처리 지연·오류 감소
  • 모델별로 에이전트를 분리(심층 판단용/분석·디버깅용/빠른 실행용)해 각 모델의 강점에 맞춰 작업을 라우팅함으로써 레이턴시와 실패율을 관리하고 처리 효율을 올림.
  • 태그: 아키텍처, 라우팅, 성능

  • 🔧 [해결] 체리픽(선택적 도입)으로 불필요한 전체 적용 회피

  • 전체 OMC 도입을 하지 않고 도메인 적합한 3개 기능만 체리픽해서 적용함으로써 개발 비용과 도메인 불일치를 줄임.
  • 태그: 의사결정, 효율화

  • ⚖️ [판단] 기능 도입 여부 판단 기준 = 도메인 적합성

  • 새 시스템(OMC 등)을 전체 도입할지 여부는 '해당 시스템이 현재 팀의 도메인과 맞는가'를 기준으로 결정함. 맞지 않으면 부분 적용(체리픽)으로 대체.
  • 태그: 판단기준, 도메인

  • 💡 [발견] 모델별 레이턴시·성공률 편차 존재

  • 같은 작업에서도 모델(gpt-5-mini, claude-sonnet 등)에 따라 평균 레이턴시와 성공률이 크게 달라 모델 선택이 시스템 성능에 직접 영향.
  • 태그: 관찰, 모니터링

  • 🔄 [개선] preemptive-compaction으로 리소스/프롬프트 최적화

  • preemptive-compaction 훅을 추가해 프롬프트 크기나 리소스 사용을 사전 압축/정리하여 호출 비용과 처리 시간을 절감하는 방식 도입.
  • 태그: 성능최적화, 프롬프트관리

  • 🔧 [해결] 복구 리포트 자동화→테스트·검증 쉬움

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합테스트를 작성해 복구 흐름을 자동화하고 검증 가능하게 만듦.
  • 태그: 운영자동화, 테스트

  • 💡 [발견] 문서/CLI 정정과 실제 공개 문서 불일치 가능

  • 초기에는 gpt-5.4 mini 공개 여부가 불확실했으나 공식 문서 재확인으로 정정이 발생—공식 문서와 로컬 도구 지원 상태를 따로 확인해야 함.
  • 태그: 검증, 정확성

  • ⚖️ [판단] 모델 오버라이드 필요 시 CLI·config 우선 확인

  • 모델을 변경해야 할 때는 먼저 Codex CLI의 -m/--model 옵션과 config.toml의 model 키로 오버라이드 가능한지 확인해 적용성 판단.
  • 태그: 운영절차, 도구검증

  • 📚 [교훈] 초기 단정은 정정 가능성 높음 → 즉시 문서화·정정 루틴 필요

  • 세션 중 정정(공개 여부 확인)이 발생했으므로 초기 판단은 '임시결론'으로 남기고 공식 문서·증거 확인 후 정정하는 루틴을 두어 혼란을 줄여야 함.
  • 태그: 절차, 신뢰도

  • 🔄 [개선] 에이전트 확장 시 역할 구분으로 관리 용이성 확보

  • 에이전트를 숫자만 늘리기보다 역할(analyst, report-writer, pipeline-debugger-deep 등)을 분명히 정해 확장하면 책임·운영·디버깅이 쉬워짐.
  • 태그: 운영, 조직설계

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심만 도입
  • 대규모 OMC 도입 대신 도메인에 맞는 핵심 기능 3가지를 선별(cherry-pick)해 구현함 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction. 전체 도입보다 선별 적용으로 개발 비용과 적합성 문제를 줄임.
  • 태그: 체리픽, 범위축소, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 기준으로 분리

  • 3단계 모델 라우팅(심층 판단용 Opus / 분석·디버깅용 Sonnet / 빠른 실행용 Haiku)을 역할(판단·분석·실행) 기준으로 구분해 트래픽과 책임을 분리하기로 결정함.
  • 태그: 모델선택, 역할기반, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 모델 변경이 가능하다는 사실을 확인해 배포 환경에서 모델 교체 유연성이 확보됨.
  • 태그: 도구기능, 배포유연성

  • 🔧 [해결] 에이전트 수평 확장으로 역할 분담

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 전문 역할을 추가함으로써 책임을 세분화하고 병렬 작업량을 처리함.
  • 태그: 스케일링, 역할세분화

  • 🔄 [개선] preemptive-compaction 훅 도입으로 사전정리

  • preemptive-compaction 스크립트와 훅을 추가해 런타임 전에 데이터/프롬프트를 압축·정리하여 LLM 호출 효율과 레이턴시를 개선하려는 워크플로우 변경.
  • 태그: 성능개선, 프롬프트관리

  • 💡 [발견] 모델별 레이턴시 차이가 뚜렷

  • 로그에서 github-copilot/gpt-5-mini는 평균 레이턴시가 길고(약 11–14s), claude-sonnet 계열은 훨씬 짧음(약 4–5s) — 모델 선택 시 레이턴시를 고려한 라우팅 필요.
  • 태그: 계측, 성능, 모델비교

  • 📚 [교훈] 전체 도입보다 도메인 적합성 먼저 확인

  • 처음에 OMC 전체 도입을 검토했으나 도메인에 맞지 않아 불필요하다고 판단하고 핵심만 선별한 결정에서 '도메인 적합성 검증 후 확대'가 중요함을 학습.
  • 태그: 교훈, 스코핑

  • 🔧 [해결] 복구 리포트 자동화 + 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하고 동시에 recovery_collector에 대한 유닛·통합 테스트를 작성하여 자동화 기능의 신뢰성을 확보함 — 자동화 + 테스트 병행 패턴.
  • 태그: 자동화, 테스트

  • ⚖️ [판단] 정보 정정은 문서 근거로 재확인 후 기록

  • gpt-5.4 mini 공개 여부를 처음에 확인 불가로 기록했다가 OpenAI 공식 문서에서 표기 확인 후 정정 기록을 남김 — 의사결정 변경 시 근거 문서와 타임스탬프로 명확히 남김.
  • 태그: 의사결정, 검증, 문서근거

  • 💡 [발견] LLM 호출 통계로 안정성·효율 판단

  • 세션별 총 호출·성공률·프롬프트·응답량·에러 수를 지속적으로 기록해 모델 안정성(성공률)과 비용/효율(프롬프트/응답량 대비 레이턴시)을 기준으로 운용 결정을 지원함.
  • 태그: 모니터링, 측정기반운영

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 전체 도입 대신 체리픽
  • 대규모 프레임워크(OMC)가 도메인에 맞지 않을 때 전체 적용을 시도하지 않고, 적절한 기능 3가지만 선별(cherry-pick)해 구현하여 리스크와 작업량을 줄임.
  • 태그: 체리픽, 리스크관리, 적응적도입

  • 🔄 [개선] 모델 역할별 라우팅으로 책임 분리

  • 모델별로 역할을 분리(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)하여 각 모델의 강점에 맞는 작업을 라우팅함으로써 처리 효율과 응답 품질을 높임.
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • ⚖️ [판단] 공식 문서 우선 확인 — 로컬 관찰 보조

  • 신규 정보(예: 모델 공개 여부)는 먼저 공식 공급자 문서를 확인하고, 로컬 도구(Codex CLI)의 지원 여부는 보조적으로 확인하여 결정을 내림. 신뢰도 높은 출처를 우선시함.
  • 태그: 신뢰도, 검증절차, 문서중심

  • 📚 [교훈] 초기 판단 뒤 재검증을 습관화하라

  • 08:15에 공개 불가로 기록했다가 08:16에 정정한 사례처럼, 빠른 초안 판단 후 곧바로 권위 있는 출처로 재확인하는 절차가 필요함 — 정정 로그를 남기고 오해를 줄임.
  • 태그: 재검증, 정정로그, 절차화

  • 🔧 [해결] 에이전트 확장 시 기능별 추가로 균형 유지

  • 에이전트 수를 늘릴 때(8→12) 단순히 수만 늘리지 않고 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 명확히 추가해 책임과 기능의 균형을 유지함.
  • 태그: 에이전트설계, 책임분리, 확장성

  • 💡 [발견] 프롬프트·응답 볼륨과 호출 수는 시스템 부하 지표로 유의미

  • 세션별로 프롬프트 총량·응답 총량·호출 수·성공률을 기록하면 모델별 레이턴시와 오류를 비교해 최적 모델 선택과 비용·성능 판단에 활용할 수 있음.
  • 태그: 모니터링, 메트릭, 성능분석

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅으로 리소스 관리

  • preemptive-compaction 같은 훅을 도입해 실행 전 자원·데이터를 미리 정리하면 런타임 중 불필요한 비용 및 지연을 줄일 수 있음.
  • 태그: 리소스관리, 자동화훅, 성능개선

  • 🔧 [해결] 사용자 불만엔 즉시 사과하고 누락된 정보 보완 제공

  • Q1 사례처럼 사용자가 항목 누락을 지적하면 먼저 사과하고(신뢰 회복), 빠르게 보완된 전체 맵이나 목록을 제공해 문제를 해결함.
  • 태그: 고객커뮤니케이션, 대응패턴, 신뢰회복

  • 📚 [교훈] 자동화 스크립트 개발은 테스트(유닛/통합)를 병행

  • recovery 리포트 자동화 스크립트 작성 시 즉시 유닛/통합 테스트(recovery_collector 테스트)를 작성하여 자동화 신뢰성을 확보함.
  • 태그: 테스트문화, 자동화신뢰성, 테스트우선

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 체리픽으로 핵심만 도입
  • OMC 전면 도입이 도메인과 맞지 않을 때 전체 도입 대신 목적에 맞는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 개발 비용과 리스크를 줄였다.
  • 태그: 거버넌스, 범위관리, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 모델을 역할·강점 기준으로 나누어 3단계 라우팅을 결정했다. 성능·용도·응답속도를 기준으로 모델을 배치함.
  • 태그: 모델선택, 아키텍처, 성능기준

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 로컬에서 모델을 오버라이드할 수 있음이 확인되어, 문서상 공개 여부와 별개로 내부 테스트·전환이 가능하다.
  • 태그: 도구제약, 운영유연성

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분담

  • 기존 8개 에이전트를 12개로 확장해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임을 더 세분화하고 전문화된 작업을 분리했다.
  • 태그: 오케스트레이션, 스케일링, 책임분리

  • 🔧 [해결] preemptive-compaction으로 리소스 압축 선제 대응

  • preemptive-compaction 훅을 도입해 대용량 프롬프트/응답을 사전 정리·압축함으로써 LLM 호출 부담을 줄이고 안정성을 개선했다.
  • 태그: 성능최적화, 프롬프트관리

  • 📚 [교훈] 공식 문서 확인은 반복 검증 필요

  • 08:14에 gpt-5.4 mini 공개 불가라고 기록했다가 08:16에 공개 표기 확인으로 정정함. 외부 문서 상태는 시점에 따라 달라지므로 결론 전후에 재검증하는 절차가 필요하다.
  • 태그: 검증절차, 정보신뢰성

  • 💡 [발견] 모델별 호출·레이턴시 통계로 라우팅 효율 판단

  • 모델별 호출수·성공률·평균 레이턴시를 수집해 Opus/Sonnet/Haiku 배치에 활용—짧은 레이턴시는 저지연 작업에, 긴 레이턴시는 심층 판단에 배정하는 근거가 된다.
  • 태그: 관측기반결정, 모니터링

  • ⚖️ [판단] 회복·복구 파이프라인은 자동화와 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 병행 착수로 복구 절차를 자동화하면서 검증 가능성(테스트)을 확보하기로 결정함.
  • 태그: 운영자동화, 테스트

2026-03-19

  • 🔧 [해결] 부분 체리픽으로 복잡한 도입을 단순화
  • OMC를 전체 도입하지 않고 도메인 적합성 때문에 필요한 3개 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 위험과 작업량을 줄임.
  • 태그: 체리픽, 위험관리, 범위조정

  • ⚖️ [판단] 도입 여부는 도메인 적합성으로 결정

  • 새 방법론이나 플랫폼 도입 시 '도메인이 맞는가'를 우선 판단 기준으로 삼아, 맞지 않으면 전체 적용 대신 핵심 기능만 선별 적용함.
  • 태그: 의사결정기준, 도메인적합성

  • 🔄 [개선] 모델 라우팅을 능력별로 3단계 분리

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델/에이전트를 역할별로 라우팅해 효율과 응답 속도를 개선함.
  • 태그: 아키텍처, 모델라우팅, 효율화

  • 💡 [발견] 공식 문서 확인 후 정정 과정 필수

  • 초기에 공개 여부 불확실하던 gpt-5.4-mini 관련 정보를 나중에 공식 문서에서 확인해 정정함 — 외부 정보는 즉시 결론 내기보다 확인·정정 프로세스를 둘 것.
  • 태그: 정보검증, 정정절차

  • 🔄 [개선] 복구 리포트 자동화 + 단위 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 동시에 진행해 신뢰성과 배포 안전성을 높임.
  • 태그: 자동화, 테스트, 운영신뢰성

  • 💡 [발견] 전쟁·지정학 이벤트는 특정 섹터(방산·에너지·사이버 등)와 직접 연결됨

  • 세션에서 전쟁으로 인해 방산·에너지·금·사이버보안·해운·비료 등 섹터가 뚜렷한 수혜를 보인다는 관찰을 체계적으로 정리함 — 이벤트→섹터 매핑 패턴 확인.
  • 태그: 도메인지식, 인과관계, 투자인사이트

  • 📚 [교훈] 사용자 불만은 빠르게 범주 확장해 보완 응답 제공

  • 사용자가 특정 종목(Vg)을 지적했을 때 에너지 섹터만 다뤄 반응이 부족했다는 피드백을 받고, 즉시 전쟁 수혜주 전체 맵을 제공해 누락을 보완함 — 초기 응답 범위를 넓게 잡을 것.
  • 태그: 사용자피드백, 대응전략

  • 🔧 [해결] 모델 실패(0% 응답) 감지 시 대체 경로 필요

  • 여러 모델 중 일부가 0% 성공률을 보일 때(예: gpt-5-mini, qwen2.5), 호출 통계 기반으로 성능 좋은 모델로 라우팅하거나 로컬 Codex 오버라이드를 사용하도록 구성해 가용성 확보.
  • 태그: 관측기반라우팅, 가용성, 페일오버

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 핵심만 도입
  • OMC 전체 도입은 도메인 불일치로 불필요하다고 판단하고, 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지만 선택적으로 구현해 목표 달성.
  • 태그: 최소화, 단계적도입, 효율

  • ⚖️ [판단] 모델 라우팅은 작업 성격에 따라 분리

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 역할(심층/분석/빠른 실행)에 따라 모델 라우팅을 3단계로 결정.
  • 태그: 모델선택, 역할기반

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 로컬에서 모델 변경을 지원한다는 사실을 확인함(문서 검증 후 정정 기록 포함).
  • 태그: 도구기능, 검증

  • 🔄 [개선] 에이전트 수평확장으로 역할 분화

  • 기존 8개 에이전트를 12개로 늘려 specialist 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 추가해 책임을 분리하고 작업 병렬화 개선.
  • 태그: 아키텍처, 확장성

  • 🔧 [해결] 프롬프트·호출 통계로 안정성 관측

  • 세션별 총 호출·성공률·프롬프트·응답량·에러 수를 수집해 모델별 평균 레이턴시와 성공률로 성능·신뢰도를 모니터링하여 문제 발생 시 원인 추적 가능.
  • 태그: 모니터링, 운영

  • 📚 [교훈] 문서 근거는 즉시 재확인해야 함

  • 초기에는 gpt-5.4 mini 공개 여부를 확인하지 못했다가 곧바로 정정함 — 외부 문서 관련 의사결정은 즉시 재검증하고 변경 사항을 로그에 남겨야 함.
  • 태그: 검증문화, 투명성

  • 🔧 [해결] 도메인 불일치 시 범위를 축소해 실행

  • 전체 프레임워크(OMC)를 도입하기보다 도메인 적합성 낮음을 이유로 핵심 부분만 추려 적용함으로써 개발 비용과 리스크를 낮춤.
  • 태그: 리스크관리, 범위조정

2026-03-19

  • 🔧 [해결] 체리픽으로 필요한 기능만 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 전면 적용 대신 핵심적으로 유용한 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 적용해 비용과 복잡도를 줄임.
  • 태그: 모듈화, 비용절감, 단계적도입

  • ⚖️ [판단] 모델 라우팅 기준을 역할별로 분리

  • 심층 판단, 분석·디버깅, 빠른 실행 등 세 그룹으로 모델 역할을 분리하여 각 작업에 적합한 모델을 라우팅함(예: Opus/심층, Sonnet/분석, Haiku/빠른 실행).
  • 태그: 모델선택, 역할기반

  • 💡 [발견] 로컬 CLI와 공식 문서 차이 발생 가능

  • 공식 문서의 공개 여부와 로컬 도구의 모델 오버라이드 지원 여부가 불일치할 수 있어, 둘을 동시에 확인하고 정정 기록을 남겨야 함(예: gpt-5.4-mini 공개 표기 확인과 Codex의 -m/--model 지원).
  • 태그: 문서검증, 운영절차

  • 🔄 [개선] 에이전트 확장은 단계적 증설

  • 필요 기능을 식별한 후 소수 에이전트로 시작해 점진적으로 늘리는 방식으로 리스크를 낮추고 역할을 명확히 함(예: 8→12개로 기능별 에이전트 추가).
  • 태그: 확장전략, 리스크관리

  • 🔧 [해결] 자동화 스크립트로 리포트·테스트 일관화

  • recovery 리포트 자동화와 recovery_collector 유닛/통합 테스트를 작성해 반복 작업을 자동화하고 검증을 표준화함.
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 운영 병목 파악

  • 모델별 호출 수·성공률·레이턴시를 수집하면 어느 모델이 병목인지(예: 높은 레이턴시 모델)나 실패 원인을 추적할 수 있음.
  • 태그: 관찰성, 성능모니터링

  • 📚 [교훈] 정정 로그는 빠르게 남기기

  • 초기 판단이 변경되면(예: gpt-5.4-mini 공개 여부) 정정 시간을 명시하고 근거 문서 링크나 설정 변경 방법을 함께 기록해야 혼선과 중복 작업을 줄일 수 있음.
  • 태그: 커뮤니케이션, 문서화

  • ⚖️ [판단] 전면 도입보다 도메인 적합성 우선

  • 새 방법론이나 프레임워크는 조직의 도메인 적합성을 먼저 판단하고, 부적합 시 일부 기능만 채택하는 쪽으로 결정함.
  • 태그: 거버넌스, 도메인적합성

  • 📚 [교훈] 성공률 및 에러 지표는 신속히 모니터링

  • LLM 총 호출·성공률·에러 수를 지속적으로 관찰해 이례치가 보이면 즉시 원인 조사와 조치를 취하도록 함(예: 일부 모델에서 0% 성공 사례 발견 시 분리 조사).
  • 태그: 운영모니터링, 알림

2026-03-19

  • 🔧 [해결] 도메인 불일치인 큰 프레임워크는 전면 도입하지 않고 체리픽으로 해결
  • OMC 전체 도입은 도메인(코드 개발)과 맞지 않아 비효율적이라 판단하고, 필요한 기능 3가지만 선별(cherry-pick)해서 도입함 — 전면 도입의 위험을 피하고 값진 부분만 취하는 방식
  • 태그: 체리픽, 도메인적합성, 리스크완화

  • ⚖️ [판단] 모델/에이전트 분리는 역할 기반으로 라우팅

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 모델·에이전트를 역할별로 나눠 3단계 라우팅을 적용하여 작업 타입에 맞는 모델 선택 기준을 명확히 함
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • 💡 [발견] 모델별 성능(레이턴시·호출량) 차이가 운영결정에 직접 영향

  • 같은 작업에서도 cliproxy/claude-sonnet-4-6은 낮은 평균 레이턴시(≈4s)를 보였고 github-copilot/gpt-5-mini는 상대적으로 늦어(≈11–14s) 라우팅·할당 전략에 반영됨 — 레이턴시·성공률 통계로 모델 선택 근거 확보
  • 태그: 메트릭관측, 모델선택, 운영지표

  • 🔄 [개선] preemptive-compaction 및 learner 패턴 추출로 자동화 파이프라인 개선

  • preemptive-compaction 훅과 session_learner.py를 만들어 호출량 많은 세션에서 사전정리·패턴 학습을 수행하도록 설계 — 프롬프트/응답 볼륨 관리를 자동화해 비용·지연 감소 기대
  • 태그: 자동화, 프롬프트관리, 학습파이프라인

  • 🔧 [해결] 에이전트 확장으로 역할 세분화하여 작업 병렬화

  • 기존 8개 에이전트를 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 전문화와 병렬 처리를 통해 처리량을 늘림
  • 태그: 스케일업, 전문화, 병렬처리

  • 📚 [교훈] 공식 문서 확인 없이 초기 판단하면 정정 비용 발생

  • 08:15에 gpt-5.4 mini 공개 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기가 확인되어 정정함 — 외부 공개 여부는 즉시 공식 문서·출처로 확인해야 함
  • 태그: 검증우선, 외부문서, 정정절차

  • ⚖️ [판단] 전체 대체보다 '필요한 것만' 우선 적용하는 결정 기준

  • 전면 교체(OMC 전체 도입) vs 부분 채택(체리픽) 비교에서 도메인 적합성·개발비용·효용(실제 코드 개발 기여도)을 기준으로 부분 채택을 선택함 — 비용 대비 효과를 우선한 의사결정
  • 태그: 의사결정기준, 비용효용, 도메인적합성

  • 💡 [발견] LLM 호출 통계(호출수·성공률·프롬프트량)는 운영 안정성·개선 포인트를 보여줌

  • 세션별·모델별 호출수·성공률·프롬프트·응답량을 집계해 에러 원인 추적, 비용 집중 지점, 자동화 필요 구간을 식별함 — 지표 중심 운영 피드백 루프 구축의 유효성 확인
  • 태그: 관측, 운영지표, 피드백루프

2026-03-19

  • 🔧 [해결] 복잡한 기능은 핵심만 체리픽해서 도입
  • OMC 전체를 한번에 도입하지 않고 도메인 적합성을 고려해 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 세 가지만 선택적으로 구현하여 위험·비용을 줄이고 빠르게 가치 검증함.
  • 태그: 점진도입, 리스크관리, MVP

  • ⚖️ [판단] 도구 도입은 도메인 적합성 기준으로 결정

  • OMC 같은 광범위한 프레임워크도 팀의 주된 역할(코드 개발)과 맞지 않으면 전체 도입을 배제하고, 도메인 적합성(팀 스킬/목표)에 따라 일부 기능만 채택함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델 라우팅을 역할별로 분리하면 처리 효율 향상

  • 세 단계 모델 라우팅(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)을 도입해 각 모델에 맞는 작업 유형을 배치함으로써 응답속도와 성공률을 최적화함.
  • 태그: 모델운영, 라우팅, 효율화

  • 🔄 [개선] 에이전트 수평 확장으로 역할 전담화

  • 에이전트 수를 8개에서 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 전담 역할을 만들고 책임 경계를 명확히 함으로써 작업 분담과 전문성을 향상시킴.
  • 태그: 조직화, 확장성, 책임분리

  • 💡 [발견] 로그·통계로 모델 성능·비용 관찰

  • 세션별 LLM 호출 통계(총 호출, 성공률, 프롬프트/응답량, 모델별 레이턴시)를 지속적으로 기록해 어떤 모델이 비용·성능·응답시간에서 유리한지 판단하는 근거로 삼음.
  • 태그: 관찰가능성, 모니터링, 데이터기반

  • 🔄 [개선] 정정 로그를 빠르게 반영해 의사결정 일관성 유지

  • 초기 판단(08:15)에서 정보가 불확실할 때 정정(08:16)을 신속히 남겨 문서화함으로써 이후 작업자들이 최신 정보를 보고 의사결정하도록 워크플로우를 개선함.
  • 태그: 문서화, 정정절차, 투명성

  • 🔧 [해결] 전문가 응답 누락 시 범위 확대하여 보완

  • 사용자 질문에서 섹터(예: Vg 관련)를 놓쳤을 때 '에너지만 파고 있었다'는 실수를 인정하고 전체 전쟁 수혜주 맵을 재정리해 누락된 정보를 보완함.
  • 태그: 고객대응, 수정응답, 커뮤니케이션

  • 📚 [교훈] 모델별 실패는 로그로 빠르게 파악하고 재할당

  • 일부 모델(gpt-5-mini, qwen2.5, openai-codex/gpt-5.4)의 호출 성공률 0% 사례가 있어, 실패 모델은 로그로 식별해 즉시 재할당하거나 사용 중지하는 절차가 필요함.
  • 태그: 교훈, 장애대응, 운영절차

  • 🔄 [개선] 자동화 스크립트와 테스트 병행으로 안정성 확보

  • recovery 리포트 자동화와 recovery_collector 유닛/통합 테스트를 병행해 자동화 산출물이 곧바로 검증되도록 워크플로우를 설계함.
  • 태그: 자동화, 테스트, 신뢰성

  • ⚖️ [판단] 빠른 실행과 심층 판단을 분리해 모델 선택

  • 요구사항이 '빠른 실행'인지 '심층 판단'인지에 따라 Haiku나 Opus 같은 경량/심층 모델을 선택하는 기준을 명확히 설정함.
  • 태그: 모델선택, SLA기준, 성능트레이드오프

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 체리픽 접근
  • 전체 OMC 도입이 적절하지 않으면 도메인에 맞는 핵심 기능 3가지만 선택해 부분 적용(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 등)으로 가치 확보
  • 태그: 기획, 범위설정, 점진적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단/분석·디버깅/빠른 실행 등 역할에 따라 Opus/Sonnet/Haiku 형태로 모델 라우팅을 설계해 책임과 성능 요구를 맞춤
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함(로컬 오퍼레이션 유연성 확보)
  • 태그: 도구, 운영

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 8개 에이전트를 12개로 확장해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 역할을 추가하여 책임 분산과 전문성 향상
  • 태그: 조직구조, 확장

  • 🔧 [해결] 복구 리포트 자동화→테스트로 검증

  • recovery 리포트 자동화 스크립트 작성 후 recovery_collector 유닛/통합 테스트를 통해 자동화 신뢰성 확보(자동화→테스트→배포 순서)
  • 태그: 자동화, 테스트

  • 💡 [발견] 모델별 호출·레이턴시 통계로 최적화 포인트 발견

  • 모델별 호출 수·성공률·평균 레이턴시를 기록해 지연이 큰 모델(예: github-copilot/gpt-5-mini의 높은 레이턴시)을 식별하고 분산/캐싱/대체 모델 전략을 세울 수 있음
  • 태그: 모니터링, 성능관리

  • 📚 [교훈] 정보 정정은 즉시 로그로 남겨야 함

  • 08:15에 공개 확인 불가로 기록했다가 08:16에 정정해 문서에 반영한 사례처럼 신속한 정정과 의사결정 로그 기록이 혼선을 줄임
  • 태그: 기록, 의사결정

  • ⚖️ [판단] 사용자 불만 대응은 사과 + 빠른 보완 제공

  • Vg 관련 문의에서 먼저 사과하고 누락된 섹터(전쟁 수혜주 전체 맵)를 신속히 제공한 방식이 사용자 신뢰 회복에 효과적임
  • 태그: 고객응대, 커뮤니케이션

  • 💡 [발견] 전쟁·지정학 이벤트는 특정 섹터 수혜로 직결

  • 지정학적 사건은 방산·에너지·금·사이버보안·해운·비료 등 섹터에 즉각적·가시적 영향(수익률 상승, 수요 급증)을 주며 포트폴리오 제안에 활용 가능
  • 태그: 도메인지식, 투자전략

  • 🔄 [개선] 프롬프트·응답량·오류 통계 정기 집계

  • LLM 호출 총량·프롬프트 문자수·응답 문자수·에러 수를 정기적으로 집계해 운영 상태를 한눈에 파악하고 자동화/비용/신뢰성 의사결정에 사용
  • 태그: 운영, 계측

2026-03-19

  • ⚖️ [판단] 큰 프레임 도입 대신 유용한 부분만 체리픽한다
  • OMC 전체 도입이 도메인 불일치로 비효율적이라 판단하고, 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지를 선택해 적용함. 범용 솔루션을 전면 도입하기보다 현업에 맞는 핵심 기능만 골라 적용하는 방식.
  • 태그: 의사결정, 범용vs특화, 리스크관리

  • 🔧 [해결] 모델별 역할을 정해 라우팅으로 성능·비용 최적화

  • 3단계 모델 라우팅(심층 판단용 Opus / 분석·디버깅용 Sonnet / 빠른 실행용 Haiku)을 도입해 각 모델의 강점을 살리고 호출 비용·레이턴시를 관리함. 문제: 다양한 요청 유형 → 해결: 역할별 모델 분배로 응답 품질과 비용 균형 달성.
  • 태그: 아키텍처, 모델라우팅, 성능최적화

  • 💡 [발견] 모델별 성공률·레이턴시 편차 관찰 → 운영 의사결정 근거로 활용

  • 로그에서 모델별 호출 수, 성공률, 평균 레이턴시 통계를 수집하여(예: gpt-5-mini 0% 실패 표기, sonnet 낮은 레이턴시) 어떤 모델을 프로덕션 라우팅에 쓸지 결정하는 근거로 사용함.
  • 태그: 모니터링, 데이터주도, 운영

  • 🔧 [해결] 체계적 LLM 호출 통계로 문제 탐지와 대응 우선순위 결정

  • 총 호출·성공률·프롬프트/응답 총량·에러 수를 주기적으로 집계해 이상 모델(에러 다수, 성공률 저하)을 식별하고 대응(재시도, 모델 오버라이드, 재검증)을 우선순위화함.
  • 태그: 운영, 모니터링, 알림

  • 🔄 [개선] 작업 단위 확대 대신 에이전트 수평 확장으로 역할 분담

  • 기존 에이전트 8개를 12개로 확장하며 분석·리포트·디버깅·크론 진단 등 세분화된 에이전트를 추가해 책임을 명확히 하고 병렬 처리 능력을 향상시킴. 결과적으로 특정 기능 고도화와 작업 분리 가능.
  • 태그: 아키텍처, 운영효율, 스케일링

  • 🔧 [해결] 문서와 CLI로 모델 오버라이드 경로 확인

  • Codex CLI와 config.toml의 -m/--model 또는 model 키를 통해 로컬에서 모델을 오버라이드할 수 있음을 확인해, 공식 공개 여부와 무관하게 운영 환경에서 모델 교체/테스트가 가능하도록 함.
  • 태그: 도구사용, 운영유연성

  • 📚 [교훈] 초기 정보 불확실성은 빠르게 정정하고 로그에 남겨라

  • 08:15에 gpt-5.4 mini 공개 확인 불가로 기록했다가 08:16에 문서에서 공개 표기 확인으로 정정함. 정보가 바뀌면 즉시 정정 기록을 남겨 의사결정 추적성을 확보해야 한다는 교훈.
  • 태그: 운영절차, 투명성, 기록

  • 🔧 [해결] 자동 리커버리·리포트 파이프라인을 코드화해 반복 업무 제거

  • recovery 리포트 자동화 스크립트와 recovery_collector의 유닛/통합 테스트를 작성해 수동 리포트 작성과 수집 검증을 자동화함. 반복적 수동 작업 → 자동 스크립트+테스트로 전환.
  • 태그: 자동화, 테스트, 신뢰성

  • 💡 [발견] 특정 외부 사건이 도메인별 수혜·리스크를 직결시킨다

  • 대화에서 UAE Shah 가스전 피격이 황 공급 차질로 이어져 비료 섹터가 급등한 사례를 확인. 외부 이벤트와 섹터·종목 연결을 빠르게 맵핑하면 투자/알림 전략에 유용함.
  • 태그: 도메인지식, 이벤트대응, 인사이트

  • 📚 [교훈] 프롬프트·응답량 기록은 비용·품질 판단의 필수 입력

  • 프롬프트 총량·응답 총량을 함께 기록해 비용(토큰·프롬프트 길이)과 모델 성능(응답량·성공률)의 관계를 분석해야 함. 이 데이터를 기반으로 프롬프트 축소나 모델 재배치 결정 가능.
  • 태그: 계측, 비용관리, 프롬프트엔지니어링

2026-03-19

  • 🔧 [해결] 문제별 모델 체리픽으로 효율화
  • OMC 전체 도입 대신 도메인 적합한 기능만 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 복잡도와 작업량을 줄임
  • 태그: 모델라우팅, 효율화

  • ⚖️ [판단] 기능 도입 여부는 도메인 적합성 기준으로 결정

  • 새 방식 전체 채택 대신 '도메인 적합성'을 우선 판단해 불필요하면 일부만 체리픽함(예: OMC 일부만 채택)
  • 태그: 의사결정, 우선순위

  • 🔧 [해결] 모델 역할을 단계별로 분리해 배치

  • 심층 판단(Opus)/분석·디버깅(Sonnet)/빠른 실행(Haiku)으로 3단계 모델 라우팅을 적용해 요청 특성에 맞는 모델로 처리 속도와 정확성 균형을 맞춤
  • 태그: 모델라우팅, 아키텍처

  • 💡 [발견] 모델별 레이턴시·성공률 편차 관찰

  • 같은 세션에서 모델별 호출 수와 평균 레이턴시가 크게 달라서 작업 유형에 따라 모델 선택이 성능에 큰 영향(예: cliproxy/claude-sonnet-4-6가 낮은 레이턴시)
  • 태그: 관측, 성능

  • 🔄 [개선] 에이전트 확장으로 역할 분화

  • 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 특화 에이전트를 추가함으로써 책임 분리와 병렬 처리 가능성 향상
  • 태그: 조직화, 확장

  • 🔧 [해결] 로컬 도구로 모델 오버라이드 지원 활용

  • Codex CLI의 -m/--model 및 config.toml을 이용해 로컬에서 모델 변경을 지원하여 공식 공개 시점과 무관하게 테스트·대체 가능
  • 태그: 도구활용, 테스트

  • 💡 [발견] 데이터 수정·정정 기록의 중요성

  • 08:15에 공개 불확실로 기록했다가 08:16에 정정해 문서 상태를 업데이트함으로써 판정/결정 로그와 타임스탬프의 정확성이 의사결정 신뢰도에 영향
  • 태그: 운영, 문서화

  • 📚 [교훈] 전체채택보다 선별적 채택이 비용·리스크 절감

  • OMC를 전체 도입하려다 도메인 불일치로 축소 결정 — 새로운 기술은 전면 도입 전 작은 범위에서 효과 검증 후 확장해야 함
  • 태그: 리스크관리, 실험

  • 🔄 [개선] 자동화 스크립트→유닛/통합 테스트 순으로 개발

  • recovery 리포트 자동화 스크립트를 작성한 뒤 recovery_collector 유닛·통합 테스트를 추가하여 자동화 신뢰도를 확보하는 워크플로우 적용
  • 태그: 테스트, 자동화

  • 📚 [교훈] LLM 호출 통계로 운영 판단하기

  • 총 호출·성공률·프롬프트/응답량·에러수 등 지표를 지속적으로 모니터링하면 모델 선정·재시도·오류 대응 정책 수립에 유용함
  • 태그: 모니터링, 운영

  • ⚖️ [판단] 응답 속도 vs 심층성은 모델 선택 기준

  • 짧은 레이턴시 모델은 빠른 실행에, 레이턴시가 높지만 복잡한 추론이 필요한 작업은 심층 모델에 할당하는 식으로 기준 설정
  • 태그: 모델선택, 성능기준

2026-03-19

  • 🔧 [해결] 핵심만 체리픽하여 도입 비용·복잡성 절감
  • OMC 전체 도입이 도메인 불일치로 부적절할 때, 관련된 유용한 부분(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 3가지만 선별 적용하여 이득은 유지하고 비용·리스크를 낮춘다.
  • 태그: 체리픽, 비용절감, 적응

  • ⚖️ [판단] 모델 라우팅은 역할 기준으로 분리

  • 에이전트 라우팅을 '심층 판단(Opus)', '분석·디버깅(Sonnet)', '빠른 실행(Haiku)'처럼 역할과 성능 특성(심층성 vs 속도)을 기준으로 3단계로 나눠 판단한다.
  • 태그: 모델선택, 역할기반, 성능무역

  • 💡 [발견] 모델별 레이턴시·성공률 패턴 관찰

  • 같은 작업 환경에서 모델마다 평균 레이턴시와 호출 성공률이 다르며, 이를 근거로 업무 분배(심층작업은 레이턴시 긴 모델에, 빈번·빠른 작업은 레이턴시 짧은 모델에 할당)하면 효율이 올라감.
  • 태그: 관찰, 성능측정, 배치정책

  • 🔄 [개선] 전용 에이전트 추가로 역량 확대

  • 필요한 기능을 식별하면(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep) 해당 전담 에이전트를 추가해 책임을 분리하고 확장성을 확보한다.
  • 태그: 아키텍처, 확장성, 책임분리

  • 🔧 [해결] 로컬 CLI 옵션으로 모델 오버라이드 활용

  • 공식 문서가 불확실하거나 최신 정보가 반영되지 않은 경우, Codex CLI의 -m/--model 또는 config.toml의 model 키를 사용해 로컬에서 모델을 즉시 변경·검증한다.
  • 태그: 운영, 도구활용, 검증

  • 📚 [교훈] 공식 문서 확인 후 정정 절차 필요

  • 초기 판단(08:15)에서 공개 여부를 확인 못했으나 이후 정정(08:16)으로 문서에 표기된 사실을 반영했다. 문서 기반 정보는 즉시 재검증·수정하는 절차를 두어야 한다.
  • 태그: 검증, 의사결정로그, 정정

  • 💡 [발견] 도메인 적합성에 따라 도입 범위 결정

  • 새 방식이나 툴을 전체 도입할지 여부는 팀의 전문성(코드 개발 전문 vs 도메인 전문)과 맞춤 여부를 먼저 판단해 적용 범위를 제한하면 실패 위험이 줄어든다.
  • 태그: 거버넌스, 리스크관리

  • 🔄 [개선] 자동화 스크립트 + 유닛 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 작성해 자동화 신뢰도를 확보하고 회귀를 방지한다.
  • 태그: 테스트, 자동화, 품질보증

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 전체 도입 대신 체리픽
  • OMC 전체 도입이 도메인과 맞지 않으면 전면 적용하지 않고, 문제 해결에 효과적인 핵심 기능(여기서는 3가지)을 선별해 부분 적용함으로써 개발 비용과 리스크를 줄였다.
  • 태그: 부분적도입, 리스크관리, 체리픽

  • ⚖️ [판단] 모델 선택은 역할 기반 라우팅으로 결정

  • 복수 모델(심층 판단·분석·빠른 실행)을 역할별로 라우팅(Opus/Sonnet/Haiku)해 각 모델의 강점을 살려 호출 효율과 응답 품질을 극대화하는 기준을 적용했다.
  • 태그: 모델라우팅, 역할기반, 성능최적화

  • 💡 [발견] 프롬프트·응답 볼륨과 호출 성공률 모니터링의 중요성

  • 세션별 프롬프트 총량, 응답 총량, 호출수와 성공률을 기록해 모델별 성능(레이턴시·성공률) 차이를 확인했고, 이를 통해 어떤 모델을 더 자주·어떻게 쓸지 결정할 수 있었다.
  • 태그: 관찰, 모니터링, 계량지표

  • 🔄 [개선] 사전압축(preemptive-compaction) 훅 도입으로 자원관리

  • preemptive-compaction 스크립트(훅)를 작성해 런타임 전 불필요 데이터 정리·압축을 자동화함으로써 후속 처리 성능과 안정성을 개선했다.
  • 태그: 자동화, 자원관리, 성능개선

  • 🔧 [해결] 복수 에이전트 확장으로 역할 분산

  • 에이전트 수를 8→12로 확장해 analyst/report-writer/pipeline-debugger-deep/cron-doctor-deep 등 책임을 분리함으로써 병렬 작업 처리능력과 전문성을 확보했다.
  • 태그: 아키텍처, 스케일링, 역할분리

  • 📚 [교훈] 공식 문서 확인 후 판단을 정정하라

  • 초기에 gpt-5.4-mini 공개 여부를 부정했다가 공식 Models 문서 확인으로 정정한 사례. 중요한 외부 사실은 즉시 공식 소스(문서)로 확인해야 함을 보여준다.
  • 태그: 검증, 외부소스, 신뢰성

  • 🔄 [개선] 테스트·리포트 자동화 병행으로 회복성 강화

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 장애 탐지·복구 리포트 과정을 자동화하고 재현성 있는 검증을 추가했다.
  • 태그: 자동화, 테스트, 복구

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 적용
  • 전체 OMC 도입은 도메인 불일치로 부적절하다고 판단되면, 전체를 포기하지 않고 해당 세션에서 효과가 기대되는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 적용한다.
  • 태그: 작업선택, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 에이전트와 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델 라우팅을 계층화해 성능·지연·목적에 맞게 할당한다.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 로컬에서 -m/--model 혹은 model 키로 모델 변경이 가능함이 확인되었다 — 문서 확인과 로컬 테스트로 검증됨.
  • 태그: 툴링, 운영

  • 🔄 [개선] 에이전트 확장 시 역할 세분화

  • 기존 에이전트(8개)에서 새로 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep를 추가해 총 12개로 확장 — 책임을 좁혀 디버깅·리포트·크론 진단을 분리함으로써 유지보수성 향상.
  • 태그: 조직화, 확장

  • 🔧 [해결] 프롬프트·호출 통계로 안정성 모니터링

  • 총 호출·성공률·프롬프트/응답 총량과 모델별 성공률/레이턴시를 주기적으로 집계해 호출 실패나 비정상 레이턴시를 빠르게 탐지하고 대응한다.
  • 태그: 모니터링, 운영

  • 💡 [발견] 모델별 성능 편차 관찰

  • 같은 워크플로우에서 github-copilot/gpt-5-mini는 레이턴시가 길고 호출수는 적은 반면, claude-sonnet은 호출수가 많고 레이턴시가 짧게 나타남 — 작업 특성에 맞춘 모델 배치 필요.
  • 태그: 성능, 모델배치

  • 📚 [교훈] 초기 판단 정정은 로그에 즉시 남길 것

  • 08:15에 공개 불확인 상태로 기록했다가 08:16에 정정해 공개 표기 확인됨 — 판단 정정 내역과 소스(공식 문서)를 즉시 남겨 혼선을 줄여야 함.
  • 태그: 문서화, 신뢰도

  • 🔄 [개선] 회복 리포트 자동화 + 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하면서 바로 recovery_collector 유닛/통합 테스트를 추가해 자동화와 검증을 동시에 진행하는 워크플로우로 전환함.
  • 태그: 테스트, 자동화

  • 🔧 [해결] 사용자 불만(종목 누락)은 전섹터 맵으로 대응

  • 특정 종목 누락에 대한 불만(예: Vg)을 받을 때는 관련 섹터별 수익률·대표 종목·핵심 포인트를 정리한 '섹터 맵'으로 빠르게 대응해 누락 사유 및 대체 종목까지 제시함.
  • 태그: 고객대응, 콘텐츠생성

  • 💡 [발견] 실세계 이벤트→원자재·섹터 연쇄 영향

  • 예: UAE Shah 가스전 피격 → 황 공급 차질(5%) → 인산비료 원료 부족 → 비료·농업 섹터 급등으로 이어짐 — 사건-원자재-섹터 흐름을 명시적으로 추적해야 함.
  • 태그: 인과관계, 시장분석

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 전체 도입 대신 체리픽으로 해결
  • OMC 전체 도입이 도메인과 맞지 않을 때는 전체를 적용하지 않고, 도메인에 맞는 핵심 기능 3가지만 선별(cherry-pick)해 구현하여 비용과 복잡도를 줄임(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 체리픽, 범위결정, 비용절감

  • ⚖️ [판단] 모델 라우팅은 작업 성격별로 계층화

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 작업 특성(심층 vs 분석 vs 빠른실행)에 따라 모델/에이전트를 나누는 3단계 라우팅을 적용함 — 성능·응답시간·정확도 기준으로 판단.
  • 태그: 모델라우팅, 역할분리, 성능기준

  • 💡 [발견] 모델별 호출 통계로 역할 적합성 식별

  • 로그에서 모델별 호출 수·레이턴시·성공률을 비교해 특정 모델이 어떤 작업에 적합한지 드러남(예: cliproxy/claude-sonnet-4-6이 낮은 레이턴시로 대량 호출에 적합).
  • 태그: 모니터링, 역할적합성

  • 🔄 [개선] 사전정리(preemptive-compaction) + 학습자(learner) 패턴 추출로 반복 작업 자동화

  • 수동 정리/압축 작업을 preemptive-compaction 훅으로 자동화하고, session_learner 스크립트로 반복되는 개선 패턴을 뽑아 재사용 가능한 에이전트/스크립트로 전환함으로써 반복비용을 줄임.
  • 태그: 자동화, 재사용, 스크립트화

  • 📚 [교훈] 공식 문서 확인 전에 단정하지 않기

  • 08:14에 gpt-5.4 mini 공개 여부를 불확실하게 보고했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정됨 — 외부 공개 여부는 공식 문서(또는 신뢰 원본)로 즉시 재확인해야 함.
  • 태그: 검증, 정보출처

  • 🔧 [해결] 로컬 도구 오버라이드 지원 확인으로 신속 대응

  • 공식 공개가 불확실한 상황에서도 로컬 Codex의 -m/--model 옵션과 config.toml 모델 키로 모델을 오버라이드할 수 있음을 확인하여 빠르게 테스트·전환 가능한 방법을 확보함.
  • 태그: 대응전략, 로컬설정

  • 💡 [발견] 대량 호출 환경에서는 일부 모델이 안정적으로 더 낮은 레이턴시를 보임

  • 여러 세션 통계를 통해 동일한 작업군에서 cliproxy/claude-sonnet-4-6이 반복 호출에 대해 상대적으로 낮은 평균 레이턴시를 보여 대규모 배치 작업에 유리함을 확인.
  • 태그: 성능관찰, 스케일

  • 🔄 [개선] 작업별 에이전트 확장으로 책임 분리

  • 에이전트 수를 8→12로 늘려 역할을 세분화(예: analyst, report-writer, pipeline-debugger-deep 등)함으로써 각 에이전트의 책임을 명확히 하고 병렬 작업 처리 효율을 높임.
  • 태그: 조직화, 병렬화

2026-03-19

  • 🔧 [해결] 필요한 부분만 체리픽하여 도입
  • 전체 OMC 도입 대신 도메인 적합성에 따라 핵심 기능 3가지를 선택해(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 우선 구현함으로써 비용과 복잡도를 줄이고 빠른 가치 획득을 목표로 함.
  • 태그: 체리픽, 비용절감, 우선순위

  • ⚖️ [판단] 도메인 적합성 기준으로 기술 도입 결정

  • 새 기술·프레임워크 도입 시 '팀/코드의 전문성과 도메인 적합성'을 기준으로 전체 도입 여부를 판단하고, 맞지 않으면 일부만 선택 적용함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델 라우팅을 단계별로 분리하면 역할 명확화

  • 3단계 모델 라우팅(Opus 심층 판단, Sonnet 분석·디버깅, Haiku 빠른 실행)을 적용하면 각 모델의 강점에 맞춘 작업 배분으로 효율과 응답속도 개선이 가능함.
  • 태그: 모델라우팅, 역할분리, 효율성

  • 🔄 [개선] 경험 기반 에이전트 확장으로 책임 분담

  • 기능 추가(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)로 에이전트 수를 늘려 역할을 세분화함 — 단일 에이전트의 과부하를 줄이고 전문성 있는 처리 경로를 만듦.
  • 태그: 아키텍처, 확장성, 전문화

  • 🔧 [해결] 로컬 툴로 모델 오버라이드 지원 확인 후 사용

  • 공식 공개 여부가 불확실할 때 로컬 Codex의 -m/--model 및 config.toml 설정으로 모델 오버라이드 가능성을 확인해 대체 경로를 확보함.
  • 태그: 대체방법, 회복탄력성, 도구설정

  • 📚 [교훈] 문서 기반 가정은 즉시 재확인 필요

  • 08:15에 gpt-5.4-mini 비공개로 기록했다가 08:16에 공식 문서에서 공개 표기로 정정 — 외부 문서 관련 결정은 실시간 재검증 루틴을 갖춰야 함.
  • 태그: 검증필요, 문서신뢰도, 교정

  • 💡 [발견] LLM 호출 통계로 안정성·병목 파악 가능

  • 모델별 호출수·성공률·평균 레이턴시 통계를 수집해 어떤 모델이 응답성·신뢰성에서 우수한지 파악하고 라우팅/캐파 설계에 반영함.
  • 태그: 관찰, 모니터링, 성능지표

  • 🔄 [개선] 복구 리포트·테스트 자동화 병행

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛·통합 테스트를 병행 작성하여 장애 탐지→보고→검증 흐름을 자동화함.
  • 태그: 자동화, 테스트, 운영복원력

2026-03-19

  • 🔧 [해결] 복잡한 모델 기능은 체리픽으로 핵심만 도입
  • 전체 OMC 방식 도입은 도메인 불일치로 비효율적이라고 판단하고, 필요한 3개 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 구현함으로써 개발 비용과 적합성 문제를 줄임.
  • 태그: 모델도입, 최소한의변경, 체리픽

  • ⚖️ [판단] 모델 라우팅은 작업 특성별로 계층화

  • 심층 판단/분석·디버깅/빠른 실행 같은 작업 특성에 따라 Opus/Sonnet/Haiku로 라우팅해 각 모델의 강점(정밀성·분석속도·응답속도)을 살림.
  • 태그: 모델선택, 라우팅, 성능-특성

  • 💡 [발견] 프롬프트·응답 비율로 호출 효율 판단

  • 세션별 프롬프트 총량과 응답 총량, 호출수 및 성공률을 모니터링해 어떤 모델이 비용·지연·성공률 측면에서 효율적인지 파악함(예: sonnet 호출수 많고 레이턴시 낮음).
  • 태그: 모니터링, 메트릭, 모델효율

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화

  • 기존 에이전트 수를 늘리는 대신 역할을 명확히(analyst, report-writer, pipeline-debugger-deep 등) 분리해 책임 범위와 전문성을 높임으로써 동시 작업 처리 및 유지보수성을 개선함.
  • 태그: 조직구조, 에이전트운영, 책임분리

  • 🔧 [해결] 모델 공개 여부 혼동은 공식 문서와 로컬 확인 병행

  • gpt-5.4 mini 공개 여부에 대해 문서상 불확실성이 생기자 공식 OpenAI 문서 확인과 동시에 로컬 Codex의 모델 오버라이드 지원(-m/--model, config.toml) 확인으로 빠르게 결론을 도출함.
  • 태그: 검증절차, 문서검증, 로컬확인

  • 📚 [교훈] 로그·통계 갱신은 즉시 정정 기록 필요

  • 08:15에 공개 불가로 기록했다가 08:16에 정정하여 문서에 다시 기록한 사례로, 사실 변경 시 즉시 정정 로그를 남기지 않으면 혼선과 중복조사가 발생함 → 정정 절차 표준화 권장.
  • 태그: 기록관리, 정정절차, 투명성

  • 💡 [발견] 전쟁·지정학 이벤트는 특정 섹터에 동시 급등 신호를 줌

  • 대화에서 방산·에너지·사이버보안·해운·비료·금 등 여러 섹터가 동시에 급등하는 패턴을 확인했으며, 이벤트 기반 스크리닝으로 관련 섹터·종목을 빠르게 식별할 수 있음.
  • 태그: 도메인지식, 이벤트기반투자, 섹터연관성

  • 🔧 [해결] 대화형 답변은 섹터 맵과 대표종목 표로 구조화

  • 사용자 불만(특정 종목 누락)에 대해 섹터별 요약과 대표종목 표로 응답함으로써 빠르게 전반적 맥락과 개별 종목을 제공해 요구를 해소함.
  • 태그: 응답구조, 사용자커뮤니케이션, 정보전달

2026-03-19

  • 🔧 [해결] 비대상 전체 도입 대신 핵심만 체리픽
  • OMC 전체 도입이 도메인에 맞지 않을 때, 관련 기능 3가지를 골라서(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 부분 도입으로 가치와 리스크를 최적화한다.
  • 태그: 체리픽, 범위제한, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 작업 성격별로 분리

  • 심층 판단·분석·빠른 실행 등 작업 성격을 기준으로 Opus/Sonnet/Haiku처럼 모델 라우팅을 3단계로 나눠 각 클래스에 맞는 모델군을 배치한다(심층 판단에 무거운 모델, 빠른 실행에 경량 모델).
  • 태그: 모델선택, 라우팅, 성능·지연

  • 💡 [발견] Codex CLI와 config로 모델 오버라이드 가능

  • 로컬 Codex는 커맨드라인 인자(-m/--model)와 config.toml의 model 키로 모델 변경을 지원하므로 배포 전 로컬 테스트로 호환성 확인이 가능하다.
  • 태그: 툴링, 설정, 검증

  • 🔄 [개선] 사전 압축(preemptive-compaction) 훅으로 비용/응답 개선

  • preemptive-compaction 스크립트를 훅으로 도입해 프롬프트/응답 크기·비용을 사전 정리함으로써 LLM 호출 효율을 개선하는 패턴.
  • 태그: 인프라, 비용절감, 성능

  • 🔧 [해결] 에이전트 수평 확장으로 역할 분리

  • 기능별 에이전트를 8→12개로 늘려 analyst·report-writer·pipeline-debugger-deep 등 역할을 분리해 병렬 작업과 책임 범위를 명확히 한다.
  • 태그: 아키텍처, 스케일링, 책임분리

  • 📚 [교훈] 공식 문서 확인 전단계에서 섣불리 결론 내리지 않기

  • 08:15에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공식 문서에서 공개 표기 확인 → 중요한 공개/버전 정보는 항상 공식 문서 재확인 후 최종 기록할 것.
  • 태그: 검증, 절차, 정정

  • 🔄 [개선] 복구 리포트 자동화 → 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛·통합 테스트를 만들어 자동화의 신뢰성을 확보하는 워크플로우.
  • 태그: 자동화, 테스트, 신뢰성

  • 💡 [발견] 운영 통계(호출·성공률·프롬프트 크기)로 모델 성능·비용 모니터링

  • 세션별 LLM 호출 수·성공률·프롬프트/응답 총량·평균 레이턴시를 정기 집계하면 어떤 모델이 비용·지연·신뢰성 측면에서 적합한지 판단할 수 있다.
  • 태그: 모니터링, 메트릭, 운영

  • 📚 [교훈] 여러 모델 실패(0% 성공) 표기는 원인 조사 우선

  • gpt-5-mini·qwen2.5·openai-codex 호출이 0% 성공으로 기록된 경우 단순 통계 표기만으로 끝내지 말고 인증·네트워크·호환성 원인 조사를 병행해야 함.
  • 태그: 운영, 트러블슈팅, 교훈

  • ⚖️ [판단] 프롬프트·응답 총량과 호출수는 비용·지연 균형 판단 기준

  • 프롬프트 총량(토큰)과 호출 횟수, 평균 레이턴시를 함께 보아 비용(토큰 기반)과 응답시간(레이턴시) 사이의 균형으로 모델/패턴 채택을 결정한다.
  • 태그: 판단기준, 비용관리, 성능평가

2026-03-19

  • 🔧 [해결] 대규모 도입 대신 핵심만 체리픽
  • 전체 OMC 도입은 도메인 부적합 시 과도하므로, 관련성이 높은 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 비용과 복잡도를 줄였다.
  • 태그: 체리픽, 범위관리, 비용절감

  • ⚖️ [판단] 모델 선택은 역할 기반 라우팅으로 결정

  • 성능·목적에 따라 모델을 역할별로 라우팅(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행)하면 각 작업에 적합한 레이턴시와 능력을 활용할 수 있다.
  • 태그: 모델라우팅, 역할기반

  • 💡 [발견] 모델별 레이턴시 차이가 작업 배치에 영향

  • 로그에서 Sonnet 계열이 낮은 평균 레이턴시(약 4s)로 반복 호출에 유리하고, github-copilot 계열은 상대적으로 레이턴시가 높아 용도에 따라 분리 사용해야 함이 드러났다.
  • 태그: 성능관찰, 용도분리

  • 🔄 [개선] 에이전트 확장으로 전문화 추진

  • 단일 범용 에이전트 대신 역할별 전문 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)를 늘려 책임과 기능을 분리함으로써 유지보수성과 효율성을 개선했다.
  • 태그: 아키텍처, 전문화

  • 🔧 [해결] 로컬 툴의 모델 오버라이드 활용

  • Codex CLI와 config.toml의 -m/--model, model 키를 활용해 로컬에서 모델을 오버라이드할 수 있음을 확인하고 모델 테스트 및 전환에 활용했다.
  • 태그: 툴체크, 운영편의성

  • 📚 [교훈] 공식 문서 확인의 우선성

  • 초기에 gpt-5.4-mini 공개 여부를 잘못 판단했다가 공식 문서 재확인으로 정정함. 외부 정보는 즉시 공식 소스에서 확인해야 함을 재확인함.
  • 태그: 검증, 정보출처

  • 💡 [발견] 프롬프트/응답 비율·통계로 시스템 부담 파악

  • 프롬프트 총량 대비 응답량·호출 수·성공률·에러 수를 지속적으로 모니터링해 시스템 안정성과 비용 효율을 판단할 수 있음(예: 호출 증가와 에러·레이턴시 상관관계 분석).
  • 태그: 모니터링, 운영지표

  • 🔄 [개선] 사전 정리 스크립트(전처리) 도입

  • preemptive-compaction 훅과 recovery 리포트 자동화·테스트 유닛을 도입해 호출 전후의 데이터 정리와 복구 보고 과정을 자동화함으로써 운영 신뢰도를 높였다.
  • 태그: 자동화, 운영신뢰도

2026-03-19

  • 🔧 [해결] 핵심만 체리픽해서 도입
  • 전체 OMC 방식은 도메인 불일치 시 전면 도입을 피하고, 관련된 유용한 부분(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 등)만 선택적으로 가져와 적용한다.
  • 태그: OMC, 선택적도입, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 작업 성격 기준으로 분리

  • 심층 판단·분석·빠른 실행 등 작업 성격에 따라 Opus/Sonnet/Haiku처럼 모델·에이전트를 3단계로 라우팅해 역할을 분담한다.
  • 태그: 모델선택, 라우팅, 역할분담

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 및 model 키로 모델 변경을 지원함을 확인해 배포·테스트 유연성이 확보됨.
  • 태그: 도구동작, 설정관리

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트를 8개에서 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 책임을 분리해 병렬 처리와 전문성 향상을 도모함.
  • 태그: 조직구조, 확장, 전문화

  • 🔧 [해결] preemptive-compaction으로 프롬프트 최적화

  • 프롬프트 총량이 크고 호출이 많은 환경에서 preemptive-compaction 훅을 추가해 요청량·비용을 줄이고 응답 효율을 높임.
  • 태그: 프롬프트관리, 비용절감, 퍼포먼스

  • 💡 [발견] 모델별 레이턴시·성공률 편차 관찰

  • 같은 작업군에서도 모델별 호출 수·레이턴시·성공률이 상이해(예: cliproxy/claude-sonnet-4-6 낮은 레이턴시, github-copilot 높은 레이턴시) 모델 선택이 운영성에 영향 줌.
  • 태그: 관측, 성능측정, 운영결정

  • 📚 [교훈] 공식 문서 확인 후 정정 로깅 필요

  • 초기에 gpt-5.4-mini 공개 여부를 확인 못했다가 정정함 — 문서 기반 확인 결과와 변경사항은 즉시 의사결정 로그에 기록해야 혼선 방지됨.
  • 태그: 문서검증, 투명성, 로그기록

  • 🔧 [해결] 복구 리포트 자동화와 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 만들어 자동화 신뢰도를 검증함 — 자동화는 테스트와 함께 배포할 것.
  • 태그: 자동화, 테스트, 신뢰성

  • ⚖️ [판단] 전략적 체리픽은 도메인 적합성 기준

  • 새 방법이나 프레임워크를 도입할 때 전체 수용 대신 '도메인 적합성'을 기준으로 필요한 구성만 골라 적용하기로 결정함.
  • 태그: 도입기준, 도메인적합성, 거버넌스

2026-03-19

  • 🔧 [해결] 대규모 OMC 도입 대신 체리픽으로 해결
  • OMC를 전체 도입하는 대신 도메인 적합성을 고려해 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction의 3가지만 선택적으로 구현하여 작업 범위와 위험을 줄임.
  • 태그: OMC, 체리픽, 리스크관리

  • ⚖️ [판단] 도구 도입 결정은 도메인 적합성으로 판단

  • OMC 전체 도입 여부를 코드 개발 전문성 여부로 판단 — 도메인이 맞지 않으면 전체 적용을 피하고 핵심 기능만 선별 적용하는 기준을 사용.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델 라우팅은 역할별로 계층화

  • 3단계 모델 라우팅(심층 판단: Opus / 분석·디버깅: Sonnet / 빠른 실행: Haiku)으로 역할과 부하에 따라 모델을 분리하면 응답 레이턴시와 성공률을 최적화할 수 있음.
  • 태그: 모델라우팅, 성능최적화

  • 🔄 [개선] 모델 변경은 CLI 인자와 설정 파일로 지원

  • 로컬 Codex에서 -m/--model 옵션과 config.toml의 model 키로 모델 오버라이드를 지원함을 확인하여 운영 환경에서 모델 교체를 설정 기반으로 자동화할 수 있음.
  • 태그: 운영자동화, 설정관리

  • 🔧 [해결] 복구 리포트 자동화 + 테스트로 반복작업 제거

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 수동 리포트 작성과 검증 부담을 줄였음.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 공식 문서 확인의 중요성 — 초기 정보 정정 사례

  • 초기에 gpt-5.4-mini 공개 여부가 불확실하게 기록되었으나 곧 공식 문서에서 공개 표기를 확인해 정정함. 외부 정보는 1차 소스(공식 문서)로 재검증해야 함.
  • 태그: 검증, 정보출처

  • 💡 [발견] 모델별 호출 통계로 병목·비효율 포착 가능

  • 모델별 호출 수·성공률·평균 레이턴시 통계를 수집해 특정 모델의 레이턴시나 에러 패턴(gpt-5-mini, qwen2.5 등 0% 성공 표기)을 발견하고 대체 경로 설계나 재시도 정책을 마련할 수 있음.
  • 태그: 관측가능성, 모니터링

  • 🔄 [개선] 에이전트 확장은 역할 기반으로 세분화

  • 기존 8개에서 12개로 에이전트를 늘릴 때 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 기능별 에이전트를 추가해 책임을 분리하고 병렬 처리 능력을 개선함.
  • 태그: 아키텍처, 스케일링

2026-03-19

  • 🔧 [해결] 필요한 기능만 체리픽해 도입
  • 전체 OMC 도입 대신 도메인과 맞는 3가지를 선별(cherry-pick)하여 구현함 — 비용·적합성 문제를 피하고 빠른 가치 실현을 목표로 함.
  • 태그: 체리픽, 비용효율, 우선순위

  • 🔧 [해결] 모델 역할에 따라 에이전트 분리

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델별·목적별 라우팅 설계로 책임과 성능을 최적화함.
  • 태그: 모델라우팅, 아키텍처, 스케일링

  • ⚖️ [판단] 도메인 적합성 기준으로 도입 결정

  • 새 기술·방법을 도입할 때는 '코드 개발 전문성 여부' 등 도메인 적합성으로 전체 도입 여부를 판단하고, 부적합하면 부분 도입으로 전환함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·성공률 차이 관찰

  • 같은 작업량에서도 모델마다 평균 레이턴시와 호출 수가 크게 다름을 관찰(예: gpt-5-mini 고레이턴시, sonnet 빠름) — 라우팅 기준에 성능 지표를 반영할 필요성 확인.
  • 태그: 계측, 성능관찰

  • 🔄 [개선] preemptive-compaction 훅으로 리소스 최적화

  • preemptive-compaction 스크립트를 도입해 세션/프롬프트 리소스 사용을 사전 정리·압축함으로써 LLM 호출 효율성을 높임.
  • 태그: 워크플로우개선, 리소스관리

  • 🔧 [해결] 작업별 에이전트 확장으로 처리량 확보

  • 필요한 역할을 분석해 에이전트를 8→12개로 늘려 기능 분담과 동시 처리 능력을 증가시킴(analyst, report-writer, pipeline-debugger-deep 등 추가).
  • 태그: 조직화, 병렬처리

  • 📚 [교훈] 초기 문서 확인 후 정정·재기록 필요

  • Codex/gpt-5.4 공개 여부를 확인하는 과정에서 초기 판단이 정정됨 — 공식 문서 재확인과 변경 이력 기록의 중요성 확인.
  • 태그: 검증, 문서관리

  • 💡 [발견] 프롬프트·응답량 대비 호출·성공률 통계로 운영 인사이트 확보

  • 세션별 총 호출, 프롬프트 문자수, 응답량, 에러수 등의 지표가 운영 상태(성공률·비용·병목)를 보여주므로 정기 계측을 권장함.
  • 태그: 관측가능성, 운영지표

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심만 도입
  • 전체 OMC 도입 대신 도메인에 적합한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 도입 비용과 위험을 줄임.
  • 태그: 최소실행, 우선순위, 리스크감소

  • ⚖️ [판단] 모델 라우팅은 역할 기준으로 분류

  • 심층 판단, 분석·디버깅, 빠른 실행처럼 수행 역할에 따라 Opus/Sonnet/Haiku로 3단계 라우팅을 결정함 — 성능·목적에 따라 모델을 분리해 효율성 확보.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 도구는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 모델 변경을 지원함을 확인 — 로컬 환경에서 유연한 모델 교체 가능.
  • 태그: 도구기능, 운영

  • 🔧 [해결] 작업 자동화 스크립트로 리포트·테스트 통합

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 수동 리포트·검증을 자동화함으로써 반복 작업 비용을 낮춤.
  • 태그: 자동화, 테스트

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분화

  • 기존 에이전트 8개에서 12개로 확장해 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가하여 책임을 분리하고 전문화함.
  • 태그: 조직화, 확장성

  • 📚 [교훈] 통계 수집으로 안정성 판단

  • LLM 호출 통계(총 호출, 성공률, 에러 수, 프롬프트·응답량)를 지속적으로 기록해 모델 성능과 안정성 문제(에러 발생, 실패 모델)를 빠르게 식별해야 함.
  • 태그: 모니터링, 관찰성

  • 💡 [발견] 실시간 정보는 정정·재검증 필요

  • 같은 날 오전에 gpt-5.4-mini 공개 여부가 확인 불가→정정: 공개 표기 확인으로 업데이트됨. 외부 뉴스/문서 정보는 즉시 재검증 및 로그에 남겨야 신뢰도 유지.
  • 태그: 정보검증, 의사결정로그

  • ⚖️ [판단] 도메인 적합성 기준으로 도입 범위 결정

  • OMC 전체 도입 대신 '코드 개발 전문'이라는 도메인 적합성 판단으로 일부 기능만 채택 — 도입 결정은 도메인 적합성 우선 기준으로 수행.
  • 태그: 거버넌스, 도입기준

  • 🔧 [해결] 역할별 모델 배치로 레이턴시·비용 최적화

  • 빠른 실행은 Haiku에, 분석·디버깅은 Sonnet에, 심층 판단은 Opus에 배치해 평균 레이턴시와 요청 비용을 모델별 특성에 맞춰 최적화함.
  • 태그: 비용최적화, 성능튜닝

  • 📚 [교훈] 부분 도입 후 검증→확장 패턴

  • 처음부터 전체를 밀어붙이지 않고 소수 기능을 체리픽해 구현해 본 뒤 성공을 바탕으로 필요한 부분만 확장하는 방식이 위험·비용을 줄임.
  • 태그: 점진적배포, 리스크관리

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 전체 도입 대신 체리픽으로 핵심만 적용
  • OMC 전체 도입은 도메인(코드 개발)에 맞지 않다고 판단하고, 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 3가지만 선별 적용하여 비용과 복잡도를 낮추고 효과는 유지함.
  • 태그: 도메인적합성, 최소변경, 체리픽

  • ⚖️ [판단] 모델 라우팅 설계는 역할(심층 판단/분석·디버깅/빠른 실행)로 결정

  • 에이전트 확장 시 모델을 Opus/Sonnet/Haiku로 3단계 라우팅하여 각 모델에 맞는 역할(심층 판단 2개, 분석·디버깅 4개, 빠른 실행 6개)을 기준으로 할당함 — 성능/레이턴시·작업 성격을 기준으로 판단.
  • 태그: 모델라우팅, 역할기반, 성능기준

  • 💡 [발견] 프롬프트 총량과 호출 수가 시스템 비용·지연에 직접 연결

  • 세션별로 프롬프트 총량이 매우 크고 모델별 레이턴시 차이가 뚜렷해(예: gpt-5-mini 평균 11–14s, sonnet ~4–5s) 모델 선택이 응답 시간과 비용에 영향 줌을 확인.
  • 태그: 모델성능, 비용관리, 레이턴시

  • 🔄 [개선] 에이전트 확장 시 역할 분화와 전용 스크립트 병행

  • 에이전트 수를 8→12로 늘리면서 전용 문서(vault-inspector-deep, quick-search)와 스크립트(session_learner.py, preemptive-compaction.sh)를 함께 생성하여 확장된 역할을 명확히 하고 운영 자동화를 늘림.
  • 태그: 운영자동화, 문서화, 스케일업

  • 📚 [교훈] 공식 문서 확인은 반복 검증 필요

  • 08:14에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 정정함 — 외부 공식 정보는 바로 판단하지 말고 중복 확인 프로세스를 두어 정정 비용을 줄여야 함.
  • 태그: 정보검증, 실수방지

  • 🔧 [해결] 복구 리포트 자동화로 반복 업무 축소

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 도입해 수동 보고·재현 작업을 줄이고 재현성 높은 자동 리포트 체계를 마련함.
  • 태그: 자동화, 테스트, 복구

  • 💡 [발견] 특정 섹터(방산·에너지·해운 등)는 외부 이벤트에 민감하게 동조

  • 대화 로그에서 전쟁·공급 차질 같은 외부 이벤트가 방산·에너지·해운·비료·금 등 섹터 수익률에 직접적이고 큰 영향을 줌 — 이벤트 기반 필터링·모니터링 유효.
  • 태그: 도메인발견, 이벤트모니터링

  • ⚖️ [판단] 모델 선택 기준은 성공률·레이턴시·작업 특성의 가중치 합

  • 모델별 호출 성능(성공률, 평균 레이턴시)과 작업 특성(심층 판단 vs 빠른 실행)을 종합해 Opus/Sonnet/Haiku로 역할을 나눈 결정이 실제 운영에서의 효율을 높였음.
  • 태그: 모델선택, 운영정책

2026-03-19

  • 🔧 [해결] 필요한 부분만 체리픽해서 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때, 전체 적용 대신 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 적용하여 비용과 복잡도 절감.
  • 태그: 체리픽, 비용절감, 범위제한

  • 🔄 [개선] 모델 역할에 따른 라우팅 분리

  • 작업 성격에 맞춰 모델 라우팅을 3단계로 나눔(심층 판단=Opus, 분석·디버깅=Sonnet, 빠른 실행=Haiku). 각 모델에 맞는 책임을 명시해 효율과 응답 품질 향상.
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • 💡 [발견] 로그/통계로 모델별 성능 차이 확인

  • LLM 호출 통계를 주기적으로 집계해 모델별 호출수·성공률·레이턴시를 비교하면 어떤 모델에 작업을 할당할지 근거가 됨(예: sonnet 레이턴시 낮음, gpt-5-mini 호출 실패 등).
  • 태그: 모니터링, 계량적근거, 모델선택

  • ⚖️ [판단] 공식 문서와 로컬 확인을 병행해 사실 확정

  • 공식 문서(예: OpenAI Models)에서 바로 확인되지 않으면 로컬 도구(Codex CLI) 설정으로 모델 변경 가능성까지 검증하고, 정정 사항이 있으면 즉시 기록해 의사결정 근거로 사용.
  • 태그: 검증절차, 문서확인, 로컬검증

  • 🔧 [해결] 자동화 스크립트와 유닛테스트 병행 배치

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 만들어 자동화 신뢰도와 회복성 확보.
  • 태그: 자동화, 테스트, 신뢰성

  • 🔄 [개선] 선제적 압축(preemptive-compaction) 훅 도입

  • 작업 파이프라인에 preemptive-compaction 훅을 추가해 이후 처리 비용을 줄이고 모델 입력량을 관리하는 패턴을 적용함.
  • 태그: 파이프라인, 리소스관리, 사전처리

  • 💡 [발견] 작업 확장 시 에이전트 세분화 효과

  • 에이전트를 8→12개로 확장하면서 역할(analyst, report-writer, pipeline-debugger-deep 등)을 세분화하면 병렬 처리와 책임 분리가 쉬워짐.
  • 태그: 오케스트레이션, 스케일링, 역할세분화

  • 📚 [교훈] 초기 결론은 정정될 수 있음 — 빠른 정정과 기록 필수

  • 08:15에 gpt-5.4-mini 공개 여부 미확인으로 기록했다가 08:16에 정정해 공개 표기를 확인함. 사실 변경 시 즉시 정정 기록하는 프로세스가 필요함.
  • 태그: 문서화, 정정프로세스, 투명성

  • ⚖️ [판단] 전체 도입보다 도메인 적합성 기준 우선

  • 새 시스템(OMC 등)을 도입할 때 도메인 적합성(팀 전문성, 업무 성격)을 우선 평가하고, 부적합하면 부분 체리픽으로 해결하는 것이 바람직하다고 판단.
  • 태그: 도입기준, 도메인적합성, 스코프결정

  • 📚 [교훈] 실패·오류 통계는 운영 개선의 출발점

  • 에러 수와 모델별 실패(예: 일부 모델이 호출 실패)를 기록해 원인 분석·자동 비활성화·ops_todos 등록 등 운영 규칙으로 연결해야 함.
  • 태그: 운영지표, 피드백루프, 에러관리

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 전체 도입 대신 체리픽(선택적 적용)
  • OMC를 전체 시스템에 도입할 필요가 없을 때, 도메인 적합성(예: 코드 개발 전문 아님)을 기준으로 핵심 3가지만 골라(cherry-pick) 도입하여 복잡도와 위험을 줄임.
  • 태그: 도메인적합성, 리스크관리, 체리픽

  • 🔄 [개선] 모델별 역할 분리 → 3단계 라우팅으로 책임 분담

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델/에이전트를 계층화해 요청을 라우팅하면 효율과 응답속도를 개선함.
  • 태그: 모델라우팅, 아키텍처, 성능

  • 🔧 [해결] 모델별 에이전트 분리로 전문화 해결

  • 모델별로 에이전트를 분리(예: analyst, report-writer 등)해 각 에이전트가 특화된 역할을 담당하게 하면 작업 병렬화와 책임 추적이 쉬워짐.
  • 태그: 에이전트, 전문화, 병렬처리

  • 💡 [발견] LLM 호출 통계는 운영 결정을 유도한다

  • 성공률, 호출수, 평균 레이턴시 같은 지표를 모니터링하면 어떤 모델을 더 많이 쓰거나 교체해야 할지, 에러·지연 원인을 판단하는 근거가 됨.
  • 태그: 관측가능성, 모니터링, 지표기반

  • ⚖️ [판단] 문서 확인 우선: 외부 문서로 사실을 검증하고 결정

  • 모델 공개 여부나 기능 지원 여부는 먼저 공식 문서/레퍼런스로 확인하고(예: OpenAI Models 문서, Codex CLI), 그 결과로 명확히 정책을 수정하거나 정정함.
  • 태그: 검증, 문서우선, 의사결정기준

  • 🔄 [개선] 사전정리된 스크립트·훅으로 예방적 정리(preemptive-compaction)

  • 시스템 동작 전에 사전 압축/정리 훅을 두어 런타임 부하를 낮추고 호출량/프롬프트 비용을 관리하는 방식으로 운영 비용과 안정성을 개선함.
  • 태그: 운영자동화, 프리프로세스, 비용관리

  • 🔄 [개선] 자동화 → 테스트 작성 루프(스크립트 작성 → 유닛/통합 테스트)

  • 리포트 자동화나 수집기처럼 새 스크립트를 만들면 즉시 유닛과 통합 테스트를 작성해 자동화 신뢰도를 빠르게 확보함.
  • 태그: 테스트, CI, 자동화

  • 📚 [교훈] 초기 정보로 즉시 결론 내리지 말고 문서·재확인 절차를 둬라

  • 예: 오전에 gpt-5.4-mini 공개 불가로 판단했다가 재확인 후 공개 표기 확인 → 정정. 외부 사실은 재확인 프로세스를 두면 잘못된 판단을 줄일 수 있음.
  • 태그: 재확인, 실수교정, 검증절차

  • 📚 [교훈] 지표만으로는 원인 규명 불충분 — 상세 로그/맥락 보강 필요

  • 총 호출·성공률 같은 요약 지표는 문제 유무는 알려주지만, 지연·오류 원인을 찾으려면 모델별 레이턴시 분포·프롬프트 길이 등 세부 맥락이 필요함.
  • 태그: 로그분석, 원인추적, 계측

  • 💡 [발견] 작업 단위 확장(에이전트 추가)은 처리량·책임 분명화 효과가 있음

  • 에이전트를 8→12로 확장해 역할을 세분화하자 각 기능의 처리량이 개선되고 누가 무엇을 담당하는지 추적이 쉬워짐.
  • 태그: 스케일링, 조직화, 책임분리

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 체리픽으로 적용
  • OMC 전체 도입이 도메인과 맞지 않을 경우 전체 적용을 포기하고, '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 실용적이고 영향 큰 3가지만 골라 구현한다.
  • 태그: 적용범위, 우선순위

  • ⚖️ [판단] 기능 분배는 모델 특성 기준으로 라우팅

  • 에이전트 확장 시 심층 판단/분석·디버깅/빠른 실행 같은 역할을 기준으로 모델(Opus/Sonnet/Haiku)에 3단계 라우팅을 적용해 책임과 성능을 분리한다.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 모델별 레이턴시·호출패턴 차이

  • 같은 작업군에서 cliproxy/claude-sonnet-4-6은 낮은 레이턴시(약 4s대)를 보였고 github-copilot/gpt-5-mini는 레이턴시가 길었다(10~14s), 따라서 역할에 따라 모델을 구분하면 효율성 향상 가능.
  • 태그: 측정, 모델성능

  • 🔄 [개선] 로컬 툴의 모델 오버라이드 활용

  • Codex CLI의 -m/--model 또는 config.toml의 model 키를 활용해 로컬에서 모델을 빠르게 교체·테스트함으로써 공식 문서와 로컬 환경 차이를 보완한다.
  • 태그: 도구활용, 테스트

  • 🔧 [해결] 복구 리포트 자동화 → 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하면서 recovery_collector에 대해 유닛·통합 테스트를 병행해 자동화 신뢰도를 확보한다.
  • 태그: 테스트, 자동화

  • 💡 [발견] 프롬프트·응답 비율로 작업 부하 파악

  • 프롬프트 총량과 응답 총량, 호출수·성공률 등의 지표를 모니터링하면 LLM 사용량과 에러·비효율 구간을 빠르게 식별할 수 있다(예: 호출은 많으나 성공률 저하 구간 발견).
  • 태그: 모니터링, 지표

  • 📚 [교훈] 초기 정보 부정확성은 즉시 정정 필요

  • 08:14 시점의 불확실한 공개 여부 판단을 08:16에 문서 확인으로 정정한 사례처럼, 외부 공개 여부 등 핵심 사실은 곧바로 재검증·정정해야 혼선과 잘못된 의사결정 방지 가능.
  • 태그: 사실검증, 운영절차

  • ⚖️ [판단] 체리픽 우선 적용 기준은 '도메인 적합성'

  • 새 기술·프레임워크 도입 시 전체 적용보다 도메인 적합성을 우선 검토해, 적합하지 않으면 부분적(핵심 3가지) 적용으로 리스크를 줄인다.
  • 태그: 정책결정, 리스크관리

2026-03-19

  • 🔧 [해결] 복잡한 LLM 작업은 모델별 에이전트 분리로 처리
  • 대규모/다양한 LLM 호출이 필요한 작업은 모델 특성에 따라 에이전트를 분리(예: Opus/심층 판단, Sonnet/분석·디버깅, Haiku/빠른 실행)하여 라우팅하면 지연·실패 위험을 줄이고 역할별 최적화를 할 수 있다.
  • 태그: LLM, 아키텍처, 분리

  • 🔧 [해결] 핵심 기능만 체리픽해서 도입 비용 최소화

  • 도메인 불일치로 전체 프레임워크(OMC) 도입이 비효율적일 때, 핵심 3가지를 선별 적용(체리픽)하여 개발 비용과 복잡도를 낮추는 방식.
  • 태그: 프로젝트관리, 비용절감

  • ⚖️ [판단] 모델 선택은 '작업 특성'으로 결정

  • 심층 판단이 필요하면 Opus 같은 고정밀 모델, 분석·디버깅은 Sonnet 계열, 빠른 실행·대량 호출은 Haiku류로 판단해 모델 라우팅을 결정한다.
  • 태그: 모델선택, 판단기준

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 로컬 모델 오버라이드가 가능하다는 사실을 확인함(문서 확인으로 검증).
  • 태그: 툴링, 발견

  • 🔄 [개선] 대규모 호출은 통계 모니터링으로 안정화

  • 세션별 LLM 호출 수, 성공률, 프롬프트/응답 총량을 주기적으로 집계해 실패 원인(레이턴시·에러)을 빠르게 파악하고 대응하는 워크플로우로 개선.
  • 태그: 운영, 모니터링

  • 📚 [교훈] 정보 초기 확인 부족이 번복을 낳음

  • 초기에 Codex/gpt-5.4-mini 공개 여부를 확실히 확인하지 않아 정정(log 추가)이 발생했음 → 외부 문서/공식 레퍼런스 먼저 확인하는 절차가 필요함.
  • 태그: 운영실수, 검증절차

  • 🔧 [해결] 복구 리포트 자동화로 테스트·검증 효율화

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트 작성으로 장애 대응과 재현성 검증을 자동화하여 회복력 향상.
  • 태그: 자동화, 테스트

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심만 도입
  • 전체 OMC 도입은 도메인 불일치로 비효율적이라 판단하고, 필요 기능 3가지를 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 부분 적용으로 문제를 해결함.
  • 태그: 체리픽, 효율화, 범위제한

  • 🔧 [해결] 모델별 역할 분리로 성능 최적화

  • 작업 성격에 따라 모델 라우팅(심층 판단→Opus, 분석·디버깅→Sonnet, 빠른 실행→Haiku)하여 각 모델의 강점을 살리고 호출 레이턴시와 성공률을 관리함.
  • 태그: 모델라우팅, 역할분리, 성능

  • ⚖️ [판단] 도메인 적합성으로 도입 여부 결정

  • 새 기법·플랫폼 도입 여부는 팀의 주 업무(예: 코드 개발)와 도메인 적합성을 기준으로 판단하여 전체 도입 대신 선별 적용을 결정함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 프롬프트·응답량 대비 모델별 레이턴시 차이

  • 동일 작업군에서 모델별 호출량과 평균 레이턴시가 크게 달라(예: cliproxy/claude-sonnet-4-6가 낮은 레이턴시) 모델 선택이 전체 처리시간에 영향 줌을 확인함.
  • 태그: 측정, 모델성능, 관찰

  • 🔄 [개선] 자동화 + 테스트 병행 워크플로우

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector의 단위/통합 테스트를 병행해 자동화 신뢰도를 높이는 방식으로 워크플로우를 개선함.
  • 태그: 자동화, 테스트, 품질보증

  • 📚 [교훈] 초기 정보 불확실성은 즉각 정정·기록

  • gpt-5.4 mini 공개 여부에 대해 초기 확인 불가 후 정정 기록(08:15 → 08:16 정정)을 남겨 혼선 최소화; 확인 후 로그에 명확히 남기는 습관 필요.
  • 태그: 정정, 기록, 투명성

  • 💡 [발견] LLM 호출 성공률·에러 추적의 운영 가치

  • 세션별 총 호출·성공률·에러 수를 지속적으로 기록해 모델별 실패 패턴과 안정성(예: 일부 모델 0% 성공률)을 운영 의사결정에 반영함.
  • 태그: 운영관측, 모니터링, 지표

  • 🔧 [해결] 특화 에이전트로 확장하여 작업 분산

  • 필요 기능이 늘어나면 에이전트 수를 늘려(8→12) 역할을 세분화하고 각 에이전트에 특화된 책임을 부여해 병렬 처리와 관리 효율을 개선함.
  • 태그: 에이전트, 스케일링, 책임분리

  • ⚖️ [판단] 전체 적용보다 부분 적용 우선

  • 새 프레임워크가 꼭 필요한 모든 기능을 제공하지 않거나 도메인과 맞지 않으면 전체 도입 대신 핵심만 추출해 우선 적용하는 것이 비용 대비 효과가 높다고 판단함.
  • 태그: 비용대비효과, 부분적도입

  • 📚 [교훈] 데이터(프롬프트/응답) 볼륨 기록은 개선 근거가 된다

  • 프롬프트 총량·응답 총량을 기록해 실적과 비용(토큰·요청 수) 관계를 파악하면 모델 선택·프롬프트 전략 개선에 유용함.
  • 태그: 데이터기록, 개선근거, 측정

2026-03-19

  • 🔧 [해결] 복잡한 모델 요구는 체리픽으로 축소
  • 전체 OMC 방식 도입이 도메인에 맞지 않을 때 모든 기능을 도입하지 않고, 핵심 3가지를 선택해(cherry-pick) 구현함으로써 비용과 복잡도를 낮추고 효과를 유지함 (예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 모델설계, 범위관리, 비용절감

  • ⚖️ [판단] 모델 라우팅은 작업 성격에 따라 계층화

  • 심층 판단이 필요한 작업은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 작업 특성(심층 vs 분석 vs 빠른 실행)에 따라 모델을 라우팅하도록 결정함 — 성능·지연·정확도 기준으로 분배.
  • 태그: 모델선택, 성능기준

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 플래그와 config.toml의 model 키로 로컬에서 모델을 변경할 수 있음 — 배포된 공식 문서와 로컬 기능이 다를 수 있으니 둘 다 확인해야 함.
  • 태그: 툴기능, 운영현실

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 대응

  • 기능 추가가 필요하면 단순 증설(수 늘리기)보다 역할을 세분화해(new agents: analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep) 각 에이전트에 책임을 분리하여 확장함 — 관리와 디버깅이 쉬워짐.
  • 태그: 운영모델, 아키텍처

  • 🔧 [해결] 복구 파이프라인 자동화 + 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화와 검증을 동시에 진행함으로써 운영 안정성을 높임.
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 모델 실사용성 판별 가능

  • 호출 수·성공률·평균 레이턴시 데이터를 통해 어떤 모델이 실제 워크로드에 적합한지(예: sonnet 호출 많고 레이턴시 낮음)를 판단할 수 있음 — 라우팅/스케일링 근거로 활용.
  • 태그: 관찰, 모니터링

  • 📚 [교훈] 초기 판단 정정 절차 필요

  • 08:14에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공개 표기 확인으로 정정함 — 외부 문서 확인 시 다중 소스(공식 문서 + 로컬 확인)를 빠르게 교차검증하는 절차가 필요함.
  • 태그: 검증절차, 신뢰도

  • ⚖️ [판단] 정보 제공 시 사용자 맥락 우선

  • 대화에서 Vg 같은 특정 종목 언급에 대응할 때 사용자가 기대하는 범위(예: 상승 종목 소개)를 먼저 확인하고 제공 범위를 조정해야 함 — 응답이 놓친 분야가 있으면 사과 후 보완 제공.
  • 태그: 고객응대, 대화설계

2026-03-19

  • 🔧 [해결] 문제별 모델 체리픽으로 효율 개선
  • 전체 OMC 도입 대신 도메인 적합한 핵심 기능 3가지를 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 우선 구현하여 복잡도와 비용을 줄임.
  • 태그: 모델라우팅, 우선순위, 단계적도입

  • 🔧 [해결] 모델 역할 분리로 작업 분담

  • 심층 판단(Opus)/분석·디버깅(Sonnet)/빠른 실행(Haiku)처럼 모델별 역할을 나눠 각 모델의 강점에 맞게 작업 라우팅함으로써 처리량과 응답속도 최적화.
  • 태그: 모델라우팅, 역할분담, 성능

  • ⚖️ [판단] 전체 도입 vs 체리픽 판단 기준: 도메인 적합성

  • 새 기술·프레임워크 도입 시 도메인 적합성(팀의 전문성·목표)으로 전체 도입 필요성을 판단하고, 적합하지 않으면 체리픽해서 핵심만 가져옴.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 도구는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인해 로컬 환경에서 모델 전환이 가능함을 발견함.
  • 태그: 도구능력, 환경설정

  • 💡 [발견] LLM 호출/성공률과 모델별 레이턴시 편차

  • 동일 세션에서 모델별 호출수·성공률은 높아도 평균 레이턴시가 모델마다 크게 달라(예: gpt-5-mini 레이턴시 큼) 라우팅 전략에 레이턴시 고려 필요.
  • 태그: 모니터링, 성능관찰

  • 🔄 [개선] 단계적 에이전트 확장으로 위험 분산

  • 에이전트를 한꺼번에 늘리지 않고 8→12개로 단계적으로 확장하며 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 추가해 리스크와 통제 가능성을 유지함.
  • 태그: 운영워크플로우, 확장전략

  • 📚 [교훈] 정보 불확실성은 즉시 정정·기록

  • 초기에 gpt-5.4 mini 공개 여부를 불확실하게 기록했다가 공식 문서 확인 후 곧바로 정정한 것처럼 불확실한 진술은 빠르게 검증하고 의사결정 로그에 남겨 혼선을 줄여야 함.
  • 태그: 검증문화, 투명성

  • 📚 [교훈] 대화형 응답에서 범위 실수 방지

  • Q&A에서 섹터 설명이 과도하게 넓어지면 사용자의 요구(특정 종목 소개 등)를 놓칠 수 있으므로 질문 의도에 맞춰 범위를 명확히 하고 요약된 핵심부터 제공해야 함.
  • 태그: 사용자응대, 요구정의

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전면 도입 대신 체리픽으로 핵심만 적용
  • OMC 전체 도입이 도메인과 맞지 않다고 판단되면, 전면 적용 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 기능 3가지를 선별해 먼저 구현하여 위험과 비용을 낮춤
  • 태그: 적용전략, 리스크관리, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할/강점 기준으로 분리

  • 심층 판단은 Opus에, 분석·디버깅은 Sonnet에, 빠른 실행은 Haiku에 배치하는 등 모델의 강점(심층 판단 vs 빠른 실행)을 기준으로 라우팅 전략을 결정함
  • 태그: 모델배치, 라우팅, 성능기준

  • 💡 [발견] 프롬프트 총량과 응답 총량 비율로 호출 부담을 평가

  • 세션별로 프롬프트 문자 수와 응답 문자 수, 호출 횟수 및 평균 레이턴시를 함께 기록하면 어떤 모델이 프롬프트-응답 비용이 큰지 파악되어 최적화 포인트를 찾을 수 있음
  • 태그: 관측값, 모니터링, 비용분석

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 진행

  • 기능 확장 시 단순히 숫자 늘리기보다 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep처럼 역할을 세분화해 책임을 분명히 하고 확장 후 관리와 디버깅을 용이하게 함
  • 태그: 아키텍처, 운영, 역할분리

  • 📚 [교훈] 초기 판단은 빠르게 수정하되 근거를 남겨야 한다

  • 08:14 시점의 모델 공개 여부 판단이 정정(08:16)되었으므로, 불확실한 정보에 대해서는 '임시 결론 + 근거 추적' 방식을 쓰고, 확인되면 즉시 정정 기록을 남겨 신뢰도를 유지해야 함
  • 태그: 의사결정, 투명성, 교정

  • 🔧 [해결] 복구 리포트 자동화 → 유닛/통합 테스트로 검증

  • recovery 리포트 자동화 스크립트를 작성할 때는 곧바로 recovery_collector 유닛/통합 테스트를 작성하여 자동화가 기대한 대로 동작함을 검증하도록 워크플로를 연결함
  • 태그: 테스트, 자동화, 리커버리

  • 💡 [발견] 모델별 레이턴시 편차가 실제 워크플로 성능에 큰 영향

  • 같은 성공률이라도 모델별 평균 레이턴시(github-copilot ~14s vs claude-sonnet ~4s)가 현장 사용성에 큰 차이를 만들므로, 응답시간을 고려해 모델 선택/라우팅 정책을 설계해야 함
  • 태그: 성능관찰, SLA, 모델선택

  • ⚖️ [판단] 모델 변경 가능성은 CLI와 config 지원 여부로 판단

  • Codex 모델 오버라이드는 Codex CLI의 -m/--model 옵션과 config.toml의 model 키 지원 여부로 실현 가능성을 판단했고, 공개 여부 정보는 공식 문서로 확인함
  • 태그: 배포판단, 운영설정, 검증방법

2026-03-19

  • 🔧 [해결] 대규모 시스템에서 기능은 체리픽으로 도입한다
  • 전체 OMC 도입 대신 도메인 맞춤 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 복잡도와 도입 비용을 낮추고 효과를 집중한다.
  • 태그: 체리픽, 리스크관리, 단계적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리한다

  • 심층 판단(Opus)·분석·디버깅(Sonnet)·빠른 실행(Haiku)처럼 모델을 역할(심도/속도/목적)에 따라 라우팅해 각 작업에 적합한 모델을 배정한다.
  • 태그: 모델선택, 라우팅, 성능최적화

  • 💡 [발견] CLI와 config로 모델 오버라이드 가능

  • Codex CLI의 -m/--model 파라미터와 config.toml의 model 키로 로컬에서 사용하는 모델을 변경할 수 있음(운영상 모델 전환 수단으로 활용 가능).
  • 태그: 운영, 모델전환, 툴체크

  • 📚 [교훈] 초기 확인 후에도 공식 문서 재검증을 해야 한다

  • 08:15에 공개확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정됨 — 외부 사실은 여러 소스를 교차검증할 것.
  • 태그: 검증, 소스교차검증, 정정절차

  • 🔧 [해결] 복구 리포트와 수집기 유닛 테스트 자동화

  • recovery 리포트 자동화 스크립트와 recovery_collector의 유닛·통합 테스트를 작성해 장애 복구 흐름을 자동으로 검증하도록 함.
  • 태그: 자동화, 테스트, 복구

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리 강화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문화된 역할을 추가하여 작업 분산과 책임 경계를 명확히 함.
  • 태그: 스케일링, 역할분리, 운영효율

  • 💡 [발견] LLM 호출 통계는 운영 의사결정의 핵심 지표

  • 총 호출수·성공률·프롬프트/응답량·에러수 및 모델별 레이턴시를 지속적으로 기록해 모델선택, 비용/성능 최적화, 장애탐지에 활용함.
  • 태그: 모니터링, 메트릭, 운영관측성

  • 🔧 [해결] 사용자 불만엔 사과 후 범위 확대로 응답

  • 사용자(투자자)의 특정 종목 지적에 대해 우선 사과하고 누락된 영역(전쟁 수혜주 전체 맵)을 정리해 제공함으로써 신뢰 회복과 정보 보완을 동시에 수행함.
  • 태그: 고객응대, 커뮤니케이션, 콘텐츠보완

  • 💡 [발견] 섹터 맵핑으로 투자 기회 구조화

  • 섹터별 핵심 지표(YTD 수익률, 대표 종목, 백그라운드 사건)를 표 형식으로 정리해 빠르게 투자 아이디어를 전달하는 패턴을 사용함.
  • 태그: 지식표현, 투자분석, 템플릿

  • 📚 [교훈] 로그·파일 기록은 의사결정 추적에 필수

  • 수정/생성 파일 목록과 의사결정 로그(시간·이유)를 남겨 나중에 변경 이력과 근거를 빠르게 추적할 수 있게 함 — 기록을 습관화할 것.
  • 태그: 기록, 추적가능성, 운영절차

2026-03-19

  • 🔧 [해결] 복잡한 모델 도입 대신 체리픽으로 핵심만 도입
  • OMC 전체 도입이 도메인에 맞지 않을 때 전체 적용을 포기하고, 모델별로 3가지 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 비용과 위험을 줄임.
  • 태그: 모델아키텍처, 리스크관리, 체리픽

  • ⚖️ [판단] 모델 라우팅 설계는 역할(심층판단/분석/빠른실행)로 나눠 결정

  • Opus/ Sonnet/ Haiku처럼 모델을 역할 기반(심층 판단 2개, 분석·디버깅 4개, 빠른 실행 6개)으로 라우팅하면 각 모델의 강점을 살려 효율성과 응답속도를 최적화할 수 있음.
  • 태그: 아키텍처, 모델선택, 운영

  • 💡 [발견] 로컬 Codex는 모델 오버라이드로 유연하게 변경 가능

  • Codex CLI와 config.toml은 -m/--model 및 model 키를 통해 로컬에서 모델 오버라이드가 가능하므로, 공식 공개 여부와 별개로 로컬 테스트·전환이 용이함.
  • 태그: 툴링, 운영, 모델전환

  • 🔄 [개선] 에이전트 확장 시 역할별 세분화로 증설

  • 기존 8개에서 12개로 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 역할을 추가해 책임 분리와 전문성을 높임 — 확장 시 역할을 명확히 나누는 방식 권장.
  • 태그: 팀구성, 확장성, 책임분리

  • 📚 [교훈] 문서 확인을 미뤘다가 정보 정정 발생 → 빠른 재검증 필요

  • 08:14에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공식 문서로 공개 확인해 정정함. 외부 공개사항은 반드시 문서/공식 소스 한번 더 확인하는 프로세스를 도입해야 함.
  • 태그: 검증, 운영절차, 실수방지

  • 💡 [발견] LLM 호출 통계로 모델별 성능·비용·오류 패턴 파악

  • 호출 수, 성공률, 평균 레이턴시, 에러 수를 모델별로 집계해 어떤 모델이 안정적이고 빠른지(예: sonnet 레이턴시 낮음)를 근거로 라우팅·비용결정을 내림.
  • 태그: 관찰, 모니터링, 의사결정기준

  • 🔧 [해결] 전략적 섹터 추천은 사건-수혜 연결로 설명

  • 사용자 불만(특정 종목 미추천)에 대해 단순 답변 대신 '사건→섹터 영향→대표 종목' 맵(예: 전쟁→방산·에너지·금 등)을 제공해 추천 근거를 명확히 함 — 투명한 근거 제시가 설득에 효과적임.
  • 태그: 사용자응대, 분석보고, 설득력

2026-03-19

  • 🔧 [해결] 체리픽 방식으로 불필요한 전체 도입을 피함
  • OMC 전면 도입 대신 도메인 적합성을 판단해 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 세 가지만 체리픽해 구현하여 비용과 복잡도를 줄임.
  • 태그: 체리픽, 비용절감, 적합성

  • ⚖️ [판단] 모델 라우팅은 역할별로 구분해 배치

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 모델을 역할(심층·분석·실행)에 따라 3단계로 나누어 라우팅함으로써 효율성과 응답 특성을 최적화함.
  • 태그: 모델선택, 라우팅, 성능

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원한다는 사실을 문서 검증으로 확인함 — 배포된 로컬 환경에서 모델 전환이 가능함.
  • 태그: 툴기능, 운영

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 8개 에이전트를 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전담 역할을 추가함으로써 책임 분리와 기능 집중을 실현함.
  • 태그: 아키텍처, 스케일링, 책임분리

  • 🔧 [해결] preemptive-compaction으로 리소스 관리

  • preemptive-compaction 훅을 추가해 세션/프롬프트 데이터를 사전 정리·압축함으로써 LLM 호출 비용과 레이턴시를 통제하려는 접근을 적용함.
  • 태그: 리소스관리, 성능, 프롬프트엔지니어링

  • 📚 [교훈] 공식 문서 확인으로 초기 판단 정정

  • 초기엔 gpt-5.4 mini 공개 여부가 확인되지 않았으나 공식 문서 재확인으로 공개 표기가 확인되어 결정사항을 정정함 — 중요한 외부 사실은 문서 재검증 루틴 필요.
  • 태그: 검증, 절차, 교정

  • 💡 [발견] 모델별 호출 통계로 성능·비용 인사이트 획득

  • 모델별 호출 수·성공률·평균 레이턴시 통계를 수집해 어떤 모델이 비용·지연 측면에서 유리한지 판단할 수 있음(예: sonnet이 낮은 레이턴시).
  • 태그: 관측, 모니터링, 의사결정데이터

2026-03-19

  • 🔧 [해결] 체리픽으로 비용 대비 효과 높은 기능만 도입
  • OMC 전체 도입 대신 도메인에 맞는 핵심 3가지를 선별(cherry-pick)해 구현함 — 전체 도입 비용·적합성 문제를 줄이고 빠른 가치 실현을 목표로 함.
  • 태그: 체리픽, 우선순위, 비용-효과

  • 🔧 [해결] 모델 특성에 맞춰 에이전트를 분리 운영

  • 작업 유형별로 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델 라우팅을 3단계로 나눠 각 모델의 강점을 활용해 응답 품질과 처리 속도를 최적화함.
  • 태그: 모델라우팅, 아키텍처, 성능

  • ⚖️ [판단] 도메인 적합성으로 도입 여부 결정

  • 기능·툴 도입을 결정할 때 '해당 도메인에 적합한가'를 기준으로 전체 도입 대신 선택적 적용을 판단함(OMC는 코드개발엔 부적합 → 부분 채택).
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 프롬프트·호출량과 응답율은 별개로 관리 필요

  • 세션별 LLM 호출 통계(총 호출, 성공률, 프롬프트 총량 등)를 통해 호출량이 많아도 성공률과 평균 레이턴시를 분리 모니터링해야 함을 확인함 — 모델별 특성(지연, 실패 패턴)을 관찰해 라우팅 근거로 사용.
  • 태그: 계측, 모델관찰, 운영

  • 🔄 [개선] preemptive-compaction 훅으로 자원·응답 최적화

  • preemptive-compaction 스크립트를 도입해 사전 압축/정리 단계를 추가함으로써 런타임 자원 사용과 응답 품질 저하를 줄이려는 워크플로우 개선을 적용함.
  • 태그: 자동화, 성능최적화, 워크플로우

  • 🔧 [해결] 학습자 패턴 추출으로 재사용 가능한 지식화

  • learner 패턴 추출을 통해 반복적인 세션·작업에서 재사용 가능한 규칙·템플릿을 생성해 이후 자동화·테스트 작성에 활용함(예: session_learner.py).
  • 태그: 지식관리, 재사용성, 자동화

  • 📚 [교훈] 초기 정보 부정확성은 빠른 정정 프로세스로 보완

  • 08:14 당시 모델 공개 여부에 대한 정보가 불확실했으나, 08:16에 공식 문서로 정정하여 의사결정 로그를 업데이트함 — 초기 결론은 빠르게 검증·정정해야 함.
  • 태그: 정정프로세스, 데이터검증, 운영절차

  • 💡 [발견] 실무 질문(사용자 문의)은 도메인별 요약형 응답이 효과적

  • 사용자 Q1에 대해 섹터별 요약(방산, 에너지, 금 등)과 핵심 포인트를 표·목록으로 정리해 제공한 방식이 복잡한 투자질문에 대해 명확한 정보 전달 수단임을 확인함.
  • 태그: 응답포맷, 사용자지원, 요약능력

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 체리픽(핵심 기능만 선택)으로 빠르게 적용
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체 적용을 피하고, 해당 세션에서 유의미한 3가지만 선별(cherry-pick)해 구현하여 리스크와 작업량을 줄임(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 범위관리, 우선순위, 체리픽

  • ⚖️ [판단] 모델 라우팅은 목적별로 계층화해서 결정

  • 심층 판단/분석·디버깅/빠른 실행 등 목적에 따라 모델군을 분리하여 3단계 라우팅을 채택(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행).
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 툴은 모델 오버라이드를 지원한다

  • Codex CLI는 명령행 옵션(-m/--model)과 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함 — 로컬 환경에서는 문서와 실제가 다를 수 있으므로 직접 검증이 필요함.
  • 태그: 툴행동, 검증

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 안정성·책임 분리

  • 에이전트를 8→12로 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 기능별 에이전트를 추가해 책임을 분리하고 특정 작업에 특화된 처리 경로를 만들었음.
  • 태그: 아키텍처, 운영

  • 🔧 [해결] 복구·리포트 자동화는 스크립트 + 유닛테스트로 신뢰성 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화 파이프라인의 신뢰도를 확보하는 패턴이 사용됨.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 초기 정보 불확실성은 즉시 정정·기록하라

  • 08:14에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공식 문서에서 공개 표기가 확인되어 정정함 — 불확실한 정보는 빠르게 재확인하고 의사결정 로그에 정정 기록을 남겨 혼선 최소화.
  • 태그: 의사결정, 투명성

  • 💡 [발견] LLM 호출 통계는 운영 개선의 핵심 신호

  • 모델별 호출 수·성공률·레이턴시 집계를 통해 어떤 모델이 비용·성능 측면에서 유리한지 판단할 수 있음(예: sonnet 레이턴시 낮음, gpt-5-mini 호출 실패 등).
  • 태그: 모니터링, 성능지표

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽(작게 적용)으로 리스크 줄임
  • 전체 OMC 도입은 도메인 불일치로 부적합하다고 판단하고, 대신 의미있는 부분 3가지만 선택해(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 적용함으로써 개발 비용과 리스크를 낮춤
  • 태그: 리스크관리, 범위축소, POC

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 결정

  • 심층 판단(Opus)·분석·디버깅(Sonnet)·빠른 실행(Haiku)처럼 작업 성격(심층 vs 분석 vs 실행)을 기준으로 모델군과 에이전트를 분리하여 라우팅 전략을 수립함
  • 태그: 모델선택, 아키텍처, 라우팅

  • 💡 [발견] 모델별 레이턴시와 호출비율 차이가 운영에 영향

  • cliproxy/claude-sonnet 평균 레이턴시가 짧고 호출 수가 많아(예: 다수의 호출을 처리), 반면 github-copilot/gpt-5-mini는 레이턴시가 길어 특정 작업에 적합함 — 모델종류와 성능 프로파일을 고려해 작업을 분배해야 함
  • 태그: 관찰, 성능모니터링

  • 🔄 [개선] 에이전트 확장으로 역할을 세분화해 병렬 처리 강화

  • 기존 8개 에이전트를 12개로 늘려(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가) 기능별 책임을 분리하고 병렬 처리·디버깅 역량을 높임
  • 태그: 워크플로우, 스케일링, 역할분리

  • 🔧 [해결] 정정 로그로 사실관계 확정 후 의사결정 업데이트

  • 초기 정보(오전 08:14)로 모델 공개 여부를 불확실하다고 판단했으나, 이후 08:16에 공식 문서를 확인해 '공개 확인'으로 정정하여 Codex 설정·운영 판단을 업데이트함 — 의사결정에서 정보 확인 단계의 명시 중요
  • 태그: 검증, 정정절차, 의사결정

  • 📚 [교훈] 수집 통계(호출·성공률·에러)로 운영 안정성 판단

  • 세션별 LLM 호출 통계와 모델별 성공률/에러 수를 기록해 안정성·문제축적을 추적함 → 통계 기반으로 문제 원인(예: 일부 모델의 0% 성공률)을 빠르게 탐지해야 함
  • 태그: 측정, 운영지표, 지표기반의사결정

  • 💡 [발견] 도메인 전문성 부족은 전체 도입보다 부분 적용이 효율적

  • OMC 전체 도입은 코드 개발 전문성 범위와 맞지 않아 불필요하다고 판단했으나, 일부 유용한 패턴만 골라 적용하면 효율적임을 확인함
  • 태그: 도메인적합성, 적용범위

  • 🔄 [개선] 복구(recovery) 관련 자동화·테스트 병행 개발

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화 파이프라인의 신뢰성을 높이는 방향으로 워크플로우를 개선함
  • 태그: 테스트, 자동화, 신뢰성

  • 🔧 [해결] 사용자 불만(투자추천 누락) → 섹터별 맵으로 빠르게 보완 제공

  • 사용자 질문에서 누락 지적(Vg 관련)을 받고, 섹터별 수혜주 맵(방산·에너지·금·사이버보안 등)을 정리해 빠르게 보완 답변을 제공함 — 사용자 피드백을 즉시 콘텐츠 보강에 반영하는 패턴
  • 태그: 사용자피드백, 콘텐츠보강, 민첩성

  • 📚 [교훈] 로그·파일 생성으로 작업 재현성 확보

  • 작업 완료 시 관련 파일(agents/vault-inspector-deep.md, scripts/session_learner.py 등)과 훅(preemptive-compaction.sh)을 생성·기록해 이후 재현과 감사가 가능하도록 함 — 변경 기록은 의사결정과 연계되어야 함
  • 태그: 추적가능성, 감사, 재현성

2026-03-19

  • 🔧 [해결] 핵심만 체리픽해서 적용
  • 전체 OMC 도입 대신 도메인 적합성을 고려해 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현하여 비용과 복잡도를 줄임.
  • 태그: 범위선정, 단계적도입

  • 🔧 [해결] 모델 기능별 라우팅으로 역할 분담

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 모델 특성에 따라 에이전트 역할을 나눠서 성능·응답속도·정확도를 최적화함.
  • 태그: 모델배치, 성능최적화

  • ⚖️ [판단] 도메인 적합성 기준으로 전체 도입 여부 결정

  • 새 기술(OMC)을 무조건 전사 도입하지 않고, 코드 개발 전문 여부 등 도메인 적합성을 판단 근거로 일부 기능만 채택함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출 특성 차이 확인

  • 같은 작업이라도 모델마다 호출 수·평균 레이턴시·성공률이 달라서 작업 유형에 맞는 모델 선택이 비용과 안정성에 영향 줌(예: sonnet 낮은 레이턴시, copilot 높은 지연).
  • 태그: 측정, 모델선택

  • 🔄 [개선] 자동화 + 테스트 병행 워크플로우

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행하여 자동화 도입 시 검증 커버리지를 확보함.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 공식 문서 확인 후 정정 기록 남기기

  • 초기엔 gpt-5.4 mini 공개 여부 불확실로 판단했다가 공식 문서 확인 후 정정했음 — 문서 근거를 찾아 기록해야 혼선 방지 가능.
  • 태그: 검증, 기록

  • 💡 [발견] 프롬프트·응답량과 호출수의 누적 비용 관찰

  • 세션별 프롬프트 총량·응답 총량·총 호출수·에러수를 지속 모니터링하면 비용·성능·안정성 트레이드오프를 관리하기 쉬움.
  • 태그: 관찰, 운영지표

  • 🔄 [개선] 에이전트 확장 시 역할 세분화

  • 단순 증설(8→12) 대신 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 추가해 책임과 기능을 명확히 분리함으로써 유지보수성과 확장성 개선.
  • 태그: 조직설계, 확장전략

2026-03-19

  • 🔧 [해결] 작은 범위 체리픽으로 도입 결정
  • 전체 OMC 도입 대신 도메인 적합성 검토 후 핵심 3가지만 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 우선 구현함으로써 비용·리스크를 줄이고 빠른 가치 창출을 목표로 함.
  • 태그: 체리픽, 우선순위, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku) 같은 역할 기준으로 모델 라우팅을 적용하면 작업 성격에 맞는 성능·지연 특성을 최적화할 수 있음.
  • 태그: 모델선택, 라우팅, 성능

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 로컬에서 모델을 변경할 수 있어 공개 문서와 실제 로컬 설정 사이의 확인이 필요함(초기에는 공개 여부 혼동 발생).
  • 태그: 도구설정, 검증, 운영

  • 🔄 [개선] 사전압축(preemptive-compaction) 훅 추가

  • preemptive-compaction 스크립트를 훅으로 도입하여 런타임 전후 데이터/프롬프트 크기 관리를 자동화함으로써 LLM 호출 비용과 레이턴시를 낮추려는 워크플로우 개선.
  • 태그: 성능최적화, 자동화, 프롬프트관리

  • 🔧 [해결] 에이전트 확장으로 역할 분담

  • 기존 8개에서 12개로 에이전트를 늘려 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등 특정 책임을 분리해 병렬 처리·전문화로 전체 처리량과 안정성 향상.
  • 태그: 아키텍처, 스케일링, 분산처리

  • 💡 [발견] LLM 호출 통계로 운영 상태 판단

  • 모델별 호출 수·성공률·평균 레이턴시를 지속적으로 기록해 고레이턴시 모델과 실패 모델을 식별, 운영·디버깅 우선순위 결정에 활용함.
  • 태그: 관찰성, 모니터링, 운영

  • 📚 [교훈] 공식 문서 확인은 반복 검증 필요

  • 초기에 gpt-5.4 mini 공개 여부를 놓쳤다가 정정한 사례 — 외부 문서와 로컬 확인 결과가 달라질 수 있으니 중요한 정보는 다중 소스로 재확인해야 함.
  • 태그: 검증, 문서화, 운영절차

  • 🔧 [해결] 리커버리 리포트 자동화 및 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 동시에 진행해 자동화 도입 시 검증 체계를 함께 구축함으로써 신뢰성을 확보함.
  • 태그: 테스트, 자동화, 신뢰성

2026-03-19

  • 🔧 [해결] 복잡한 모델 요구는 소수 기능만 체리픽하여 우선 적용한다
  • OMC 전체 도입 대신 도메인 적합성 부족을 이유로 핵심 3가지만 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 단계적으로 구현함으로써 위험과 비용을 줄이고 빠른 가치 제공을 목표로 함.
  • 태그: 모델배치, 리스크관리, 우선순위

  • 🔧 [해결] 모델 특성에 따라 라우팅 계층을 나눠 역할 최적화

  • 심층 판단(Opus)/분석·디버깅(Sonnet)/빠른 실행(Haiku)으로 3단계 모델 라우팅을 설계해 각 모델의 강점을 살려 작업을 배분함.
  • 태그: 모델라우팅, 아키텍처, 성능최적화

  • 💡 [발견] 로컬 Codex는 모델 오버라이드를 지원한다

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원하므로, 로컬 환경에서 모델 전환이 가능함을 확인함.
  • 태그: 툴링, 환경설정

  • ⚖️ [판단] 전면 도입 vs 체리픽: 도메인 적합성으로 판단

  • 전면 도입은 도메인이 맞지 않을 경우 비용과 복잡성만 증가시키므로, 도메인 적합성이 낮으면 전체 도입을 피하고 핵심 기능만 선택 적용함.
  • 태그: 의사결정기준, 도메인적합성

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 에이전트 수를 8개에서 12개로 확장해 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등을 추가, 책임 분리와 전문화로 유지보수성과 처리 효율을 개선함.
  • 태그: 운영, 스케일링, 책임분리

  • 📚 [교훈] 정보 불확실성은 즉각 정정 로그로 보완하라

  • 초기에는 gpt-5.4 mini 공개 여부 확인 불가로 기록했다가 곧 정정하여 공개 표기 확인을 남김. 불확실한 사실은 빠른 재검증과 정정 기록이 중요함을 보여줌.
  • 태그: 문서화, 정확성, 운영절차

  • 💡 [발견] LLM 호출 통계로 성능·안정성 지표를 추적한다

  • 총 호출·성공률·프롬프트/응답 총량·에러수·모델별 평균 레이턴시를 수집해 운영 상태와 병목을 파악하는 모니터링 패턴이 정착되어 있음.
  • 태그: 모니터링, 관찰성

  • 🔧 [해결] 복구 리포트·테스트 자동화로 신뢰도 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 도입해 장애 대응과 회복 절차의 검증 가능성을 높임.
  • 태그: 자동화, 테스트

2026-03-19

  • 🔧 [해결] 복잡한 모델 요구는 체리픽으로 분해해 적용
  • OMC 전면 도입 대신 도메인 적합성에 따라 3가지(에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별 적용하여 구현 비용·리스크를 낮춤
  • 태그: 모델설계, 리스크관리

  • 🔧 [해결] 모델 라우팅을 용도별로 계층화

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)으로 3단계 라우팅을 도입해 요청 유형에 맞게 모델과 에이전트를 배치함
  • 태그: 아키텍처, 성능

  • ⚖️ [판단] 전면 도입 vs 체리픽은 도메인 적합성으로 결정

  • 새 방법(OMC)을 전면 도입할지 결정할 때 '도메인 적합성'을 우선 기준으로 삼고, 맞지 않으면 핵심 기능만 체리픽 적용하기로 판단함
  • 태그: 의사결정, 도메인

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 로컬에서 모델 변경(오버라이드)이 가능함을 확인함
  • 태그: 툴링, 운영

  • 💡 [발견] LLM 호출 통계로 성능·신뢰성 파악

  • 모델별 호출 수·성공률·평균 레이턴시를 기록해 어떤 모델이 빠르고 안정적인지 비교 가능한 지표를 확보함(예: sonnet 낮은 레이턴시)
  • 태그: 모니터링, 지표

  • 🔄 [개선] 자동화 스크립트와 테스트를 함께 작성

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 작성하여 자동화 신뢰도를 높이는 워크플로우로 전환함
  • 태그: 테스트, 자동화

  • 📚 [교훈] 초기 정보 불확실성은 정정/업데이트로 해소

  • gpt-5.4 mini 공개 여부에 대해 초기 확인 불가 판단 후 정정하여 공식 문서 공개 표기 확인—정보 불확실 시 즉시 정정 로그를 남기는 것이 중요함
  • 태그: 커뮤니케이션, 운영절차

  • 📚 [교훈] 대화형 응답은 사용자 관점 누락을 재점검해야 함

  • 사용자 질문(Vg 종목 소개)에서 관심사(특정 종목)에 빠르게 대응하지 못함 → 사용자 관점(요청 범위)을 빠르게 재확인하고 보완 제공할 것
  • 태그: 사용자지원, 품질

  • 🔧 [해결] 모델별 에이전트 확장으로 역할 분담

  • 에이전트 수를 8개에서 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 세분화하여 작업 병렬성과 전문성 확보
  • 태그: 조직화, 확장성

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 전체 도입 대신 핵심 기능만 체리픽
  • OMC 전체 도입이 도메인과 맞지 않다고 판단되면 전체를 적용하지 않고 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction'처럼 영향이 큰 3가지 기능만 선정해 적용해 문제를 단순화하고 리스크를 줄였다.
  • 태그: OMC, 체리픽, 리스크관리

  • ⚖️ [판단] 모델 라우팅 설계는 역할·지연·판단 복잡도로 결정

  • 세부 의사결정에서 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 라우팅을 채택 — 모델을 선택할 때 '심층 판단 필요성', '분석량/디버깅 요구', '응답 속도'를 기준으로 나눴다.
  • 태그: 모델라우팅, 설계기준

  • 💡 [발견] 공식 문서 확인 전후에 판단이 바뀔 수 있음

  • 08:14에 gpt-5.4 mini 공개 여부를 확인하지 못했다가 08:16 정정으로 공식 문서에서 공개 표기가 확인되면서 초기 판단이 바뀌었다 — 문서 검증 결과가 의사결정에 직접 영향.
  • 태그: 문서검증, 의사결정

  • 🔄 [개선] recovery 리포트와 유닛 테스트로 자동화·검증 병행

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector의 유닛/통합 테스트를 추가하여 자동 보고와 코드 품질 검증을 결합하는 워크플로우로 개선 중.
  • 태그: 자동화, 테스트, 품질보증

  • 📚 [교훈] 모델 호출 실패 로그가 특정 모델에 집중될 때 원인 조사 필요

  • 여러 세션에서 gpt-5-mini, qwen2.5:7b, openai-codex/gpt-5.4 등 일부 모델이 0% 성공률로 표기됨 — 실패 모델에 대해 별도 원인(환경·토큰·네트워크) 조사가 필요하다는 교훈.
  • 태그: 모델모니터링, 장애대응

  • 🔧 [해결] 에이전트 확장은 역할 기반으로 단계적 추가

  • 에이전트 수를 8→12로 늘릴 때 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 역할을 추가해 기능을 세분화하고 책임을 명확히 했다 — 확장은 역할을 기준으로 단계적으로 수행.
  • 태그: 에이전트관리, 역할분리

  • ⚖️ [판단] 프롬프트·응답량/성공률 지표로 운영 상태 판단

  • 세션별로 '총 호출', '성공률', '프롬프트 총량', '응답 총량', '에러 수'를 집계해 모델 성능과 운영 상태를 수치로 판단하고 우선순위를 정했다.
  • 태그: 운영지표, 모니터링

2026-03-19

  • 🔧 [해결] 도메인 부적합할 때는 전체 도입 대신 체리픽으로 적용
  • OMC(전체 도입)가 도메인과 맞지 않을 경우 전체 적용을 피하고, 해당 세션에서 효과가 클 것으로 예상되는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현하여 비용과 복잡도를 낮춤.
  • 태그: OMC, 체리픽, 리스크관리

  • ⚖️ [판단] 모델/에이전트 라우팅은 역할별 성능 기준으로 분리

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)처럼 모델을 호출 목적(심층 판단 vs 분석 vs 빠른 실행)으로 분리해 라우팅을 결정함.
  • 태그: 모델라우팅, 역할기반

  • 💡 [발견] Codex CLI는 모델 오버라이드 옵션을 지원한다

  • 로컬 Codex는 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원한다는 사실을 문서 검증을 통해 확인함(배포·테스트 유연성 확보).
  • 태그: 도구기능, codex, 설정관리

  • 📚 [교훈] 공식 문서 확인 없이 결론 내리면 정정이 필요해진다

  • 08:14에 'gpt-5.4 mini 공개 확인 불가'로 기록했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정함. 중요한 사실은 즉시 공식 소스(공식 Models 문서 등)로 재확인해야 함.
  • 태그: 검증절차, 실수교훈

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 성능·유지보수 향상

  • 에이전트 수를 8→12로 늘리며 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 책임을 명확히 하고 특정 작업(디버깅/리포트/크론 진단)에 특화된 워크플로우로 전환.
  • 태그: 아키텍처, 에이전트, 스케일링

  • 🔧 [해결] 복구 리포트 자동화 → 테스트 작성으로 신뢰성 확보

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector의 단위·통합 테스트를 추가해 수동 복구 보고서의 반복 작업을 자동화하고 검증 가능하게 만들었음.
  • 태그: 자동화, 테스트, recovery

  • 💡 [발견] 모델별 호출 통계로 성능·비용 의사결정 근거 확보

  • 모델별 호출 수·성공률·평균 레이턴시를 꾸준히 수집하여 어떤 모델을 어느 역할에 배치할지, 호출 비용과 레이턴시를 고려한 의사결정 자료로 사용함(예: sonnet 낮은 레이턴시).
  • 태그: 관측, 메트릭기반결정

  • 📚 [교훈] 초기 판단은 빠르게 기록하되, 변경 발생 시 즉시 의사결정 로그에 정정 기록

  • 세션 중 사실이 바뀌면(예: 문서에서 공개 표기 확인) 즉시 의사결정 로그에 정정 시점을 남겨 추적 가능하게 한 점은 투명성·재현성에 유리함.
  • 태그: 운영절차, 기록문화

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽해서 소규모로 도입
  • 전체 OMC를 한꺼번에 도입하지 않고 도메인 적합한 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현하여 위험과 작업량을 줄임
  • 태그: 점진도입, 리스크관리, 모듈화

  • 🔧 [해결] 모델 특성에 맞춰 역할을 분리하여 라우팅

  • 심층 판단에는 Opus, 분석·디버깅에는 Sonnet, 빠른 실행에는 Haiku처럼 모델별로 에이전트를 세분화해 각 모델 강점을 살림
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • ⚖️ [판단] 풀 도입 vs 부분 체리픽: 도메인 적합성으로 결정

  • 새 기술(OMC)을 전체에 적용할지 여부는 팀의 도메인 전문성과 적합성으로 판단 — 도메인과 맞지 않으면 필요한 기능만 선택 적용
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 로컬에서 모델 변경을 지원한다는 사실을 문서 확인으로 검증
  • 태그: 도구제약, 설정관리

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화

  • 에이전트 수를 늘릴 때 단순 증원 대신 기능별(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)로 세분화하여 책임과 전문성을 명확히 함
  • 태그: 운영모델, 조직구조, 책임분리

  • 📚 [교훈] 빠른 확인 후 정정하는 의사기록 습관

  • 초기 08:14의 판단(공개 여부 확인 불가)을 곧바로 문서로 남기고, 08:16에 정정사항(공개 표기 확인)을 추가해 변경 이력을 투명하게 관리한 점 — 불확실할 때 기록하고 검증 후 업데이트하라
  • 태그: 기록습관, 투명성, 검증후업데이트

  • 💡 [발견] LLM 호출량·성공률 모니터링으로 안정성 판단

  • 세션별 LLM 호출 수·성공률·프롬프트/응답 총량·에러 수를 집계해 모델별 성능(호출량, 평균 레이턴시)과 안정성을 파악함
  • 태그: 관측, 운영지표, 모니터링

  • 🔧 [해결] 복구 리포트·테스트 자동화 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 수동 리포트 부담을 줄이고 회복력 검증을 자동화함
  • 태그: 자동화, 테스트, 복구

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 작은 단위만 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 관련된 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함. 대규모 도입 대신 핵심만 선택해 위험·노력 최소화.
  • 태그: 거버넌스, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단·분석·빠른 실행으로 모델을 분리(Opus/Seonnet/Haiku)해 각 모델의 강점에 맞춘 라우팅을 적용함. 성능/지연/작업 특성으로 모델 선택 기준을 삼음.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 허용함을 확인 — 로컬 환경에서 모델 전환 가능.
  • 태그: 툴체크, 운영

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 에이전트에서 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등 추가하여 8→12개로 확장, 책임 분리로 디버깅·리포트·파이프라인 작업 효율화.
  • 태그: 조직화, 운영효율

  • 🔧 [해결] 복구 리포트 자동화 + 테스트로 신뢰성 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화 신뢰성과 재현성을 확보하려 함.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 문서·공식 자료로 빠르게 정정·업데이트해야 함

  • gpt-5.4-mini 공개 여부에 대해 초기 확인 불가였다가 공식 문서에서 공개 표기를 발견해 의사결정이 정정됨 — 중요한 외부 사실은 문서 교차검증 절차 필요.
  • 태그: 검증, 의사결정

  • 💡 [발견] LLM 호출/모델별 성능 편차 관찰

  • 호출 수·성공률·평균 레이턴시 로그에서 모델별 특성이 뚜렷함(github-copilot 느림, claude-sonnet 빠름). 작업 타입에 맞춰 모델 배치하면 비용·지연 최적화 가능.
  • 태그: 관찰, 성능최적화

  • 📚 [교훈] 체계적 세션 로그가 의사결정·추적에 도움됨

  • 시간표기된 완료 작업·의사결정 로그·생성 파일 목록·LLM 통계가 함께 기록되어 향후 재현·후속작업에 유용했음 → 모든 세션에 이 포맷 권장.
  • 태그: 운영, 문서화

2026-03-19

  • 🔧 [해결] 치밀한 체리픽으로 복잡한 프레임워크 도입 대신 핵심만 적용
  • 전체 OMC 도입은 도메인 불일치로 판단하고, 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 실용적인 3가지만 선택해 구현하여 비용과 위험을 줄임.
  • 태그: 체리픽, 리스크관리, 최소실행

  • ⚖️ [판단] 모델 라우팅은 역할별로 심층/분석/빠른 실행으로 분리

  • 에이전트 확장 시 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델·에이전트 역할을 기준으로 라우팅해 성능·지연·정확도 요구를 충족시키기로 결정함.
  • 태그: 아키텍처, 모델선택, 성능

  • 💡 [발견] 로컬 Codex는 CLI로 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 허용한다는 사실을 문서와 실검을 통해 확인함(초기에는 공개 여부 혼선이 있었음).
  • 태그: 도구, 발견, 문서검증

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분담을 명확히 함

  • 기존 8개에서 12개로 에이전트를 늘려 analyst/report-writer/pipeline-debugger-deep/cron-doctor-deep 등을 추가, 기능별 책임을 분리해 유지보수와 디버깅 효율을 개선함.
  • 태그: 운영, 스케일링, 책임분리

  • 🔧 [해결] 프롬프트·응답 통계로 호출 품질 모니터링

  • 총 호출, 성공률, 프롬프트·응답 총량, 모델별 평균 레이턴시를 정기 집계해 어떤 모델이 비용·성능·신뢰성에서 유리한지 판단하여 라우팅·체리픽 결정에 활용함.
  • 태그: 관찰가능성, 모니터링, 운영

  • 📚 [교훈] 공식 문서 확인은 반복 검증이 필요하다

  • 초기에 gpt-5.4 mini 공개 여부가 불확실했으나 추가 확인으로 정정함 — 외부 정보는 한 번의 확인으로 끝내지 않고 교차검증해야 함.
  • 태그: 검증, 실수교정, 문서검토

  • 💡 [발견] 전쟁·지정학 이슈는 특정 섹터에 빠르게 영향

  • 대화에서 전쟁 관련 뉴스가 방산, 에너지, 금, 사이버보안, 해운, 비료 등 섹터별 수익률과 대표 종목에 즉시 연결됨 — 외부 사건→섹터 맵핑 패턴이 유효함.
  • 태그: 도메인지식, 금융, 연결성

  • 🔧 [해결] 도메인 편향이 있을 때 사용자 불만은 섹터 맵으로 보완

  • 사용자 불만(특정 종목 미소개)에 대해 '전쟁 수혜주 전체 맵'을 제공해 누락을 보완하고 신뢰를 회복함 — 빠른 리포트 생성으로 고객 대응 해결.
  • 태그: 고객응대, 리포트, 콘텐츠보완

2026-03-19

  • 🔧 [해결] 복잡한 LLM 지향 작업은 모델별 에이전트로 분리해 처리
  • 대규모 호출·다양한 레이턴시를 가진 상황에서는 역할별(심층 판단 / 분석·디버깅 / 빠른 실행)로 에이전트를 나누어 모델 라우팅을 적용함으로써 처리 효율과 성공률을 높임(예: Opus/Sonnet/Haiku 라우팅).
  • 태그: LLM, 아키텍처, 성능

  • ⚖️ [판단] 전체 도입 vs 부분 체리픽은 도메인 적합성으로 결정

  • 새 프레임워크(OMC)를 전사적으로 도입할지 여부는 팀의 도메인 적합성으로 판단—코드 개발 전용 팀이라면 전체 도입보다 핵심 유용 기능 3가지를 체리픽해 적용하는 쪽을 선택함.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 평균 레이턴시 차이가 전체 파이프라인 설계에 영향

  • 로그에서 모델별 평균 레이턴시(예: github-copilot ~14s, claude-sonnet ~4s)가 크게 달라 모델 선택과 라우팅 전략, 프런트엔드 타임아웃/병렬화 설계에 직접적인 근거를 제공함.
  • 태그: 측정, 성능, 설계

  • 🔄 [개선] 복구/리포트 파이프라인을 스크립트화하고 테스트 추가

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector 유닛/통합 테스트를 추가해 수동 리포트 작업을 자동화하고 검증 가능하게 만듦.
  • 태그: 자동화, 테스트, 운영

  • 📚 [교훈] 문서 한 번의 확인으로 결론 내리지 말고 즉시 정정하라

  • 초기에 Codex 5.4 mini 공개 여부를 확인하지 못했다가 곧바로 정정함. 외부 문서 해석/확인에서 실시간 재검증 루틴이 필요함을 보여줌(정확성 우선).
  • 태그: 운영, 검증, 정확성

  • 🔧 [해결] 전문성 부족한 영역은 전체 교체보다 핵심 기능 선별 적용

  • 팀이 특정 프레임워크(OMC) 전체 도입에 적합하지 않을 때, 핵심적으로 유용한 3가지를 골라 적용하는 방식으로 위험과 비용을 줄이며 성과를 얻음.
  • 태그: 리스크관리, 도입전략

  • 💡 [발견] 시장 이벤트(전쟁, 피격)와 섹터별 수혜 연결 고리가 즉각적 투자 아이디어로 전환됨

  • 세션 대화에서 전쟁 관련 뉴스(무기 증산, Shah 피격)가 방산·에너지·비료·귀금속 등 섹터에 즉각적 영향(수익률·수요 증가)으로 연결되어 종목 추천과 맵핑에 활용됨.
  • 태그: 도메인지식, 시황연결, 투자

2026-03-19

  • 🔧 [해결] 체리픽 방식으로 복잡한 도입 결정 간소화
  • 전체 OMC 도입을 하지 않고 도메인 적합성에 따라 '필수 3가지만' 선택해 구현함(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 복잡한 전면 도입 대신 핵심 기능만 먼저 적용해 위험·비용을 낮춤.
  • 태그: 결정분기, 리스크관리, 실행우선

  • ⚖️ [판단] 모델 라우팅은 역할·강점 기준으로 분류

  • 에이전트 확장 시 Opus는 심층 판단, Sonnet은 분석·디버깅, Haiku는 빠른 실행으로 역할을 나눔. 모델/에이전트 선택은 처리 특성(심층성 vs 속도 vs 디버깅 능력)으로 판단함.
  • 태그: 모델선택, 역할기반

  • 💡 [발견] 로컬 Codex는 모델 오버라이드와 config 지원

  • Codex CLI는 -m/--model 옵션과 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함(현장 환경에서 빠르게 모델 전환 가능).
  • 태그: 툴기능, 구성관리

  • 🔄 [개선] 에이전트 확장으로 역할 분화→확장성 향상

  • 기존 8개 에이전트를 12개로 늘려 전문화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)함으로써 특정 작업에 최적화된 에이전트를 할당하는 워크플로우로 전환.
  • 태그: 아키텍처, 확장성

  • 🔧 [해결] 프롬프트·응답 통계로 운영 문제 조기감지

  • 세션별 LLM 호출 수·성공률·프롬프트·응답량·에러를 주기적으로 집계해 모델 성능·에러율 변화를 모니터링하고, 평균 레이턴시로 병목 모델 식별에 활용함.
  • 태그: 모니터링, 운영계량

  • 📚 [교훈] 전문성 불일치는 전면 도입보다 부분 적용이 안전

  • OMC를 전체 도입하려 했으나 도메인 적합성 문제로 실패 위험 판단 → 핵심 3가지만 체리픽해 적용. 앞으로도 도메인 불일치 시 전면 적용 대신 시범 적용 우선권 부여.
  • 태그: 교훈, 프로젝트거버넌스

  • 💡 [발견] 시장·도메인 변화(전쟁 등)는 섹터별 차별적 수혜를 만듦

  • 대화에서 전쟁 관련 섹터(방산, 에너지, 금, 사이버보안, 해운, 비료 등)가 뚜렷한 수익률 차이를 보였음 — 리서치·추천은 상황별 섹터 맵으로 구조화해야 효과적.
  • 태그: 도메인인사이트, 리서치방법론

  • 🔧 [해결] 빠른 정정·업데이트로 정보 불확실성 해소

  • 초기에는 gpt-5.4 mini 공개 불가 확인 → 곧 정정해 OpenAI 문서에 공개 표기가 있음을 반영함. 불확실한 외부 정보는 빠르게 재검증하고 로그에 정정 기록을 남김.
  • 태그: 정보검증, 데이터정합성

2026-03-19

  • 🔧 [해결] 대규모 도입 대신 핵심 기능만 체리픽
  • 전체 OMC 도입은 도메인 부적합이라 판단하고, 필요한 3가지만 골라(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 구현해 비용과 복잡도를 줄이고 가치만 확보함.
  • 태그: 범위설정, 리스크절감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리

  • 심층 판단용(Opus) / 분석·디버깅용(Sonnet) / 빠른 실행용(Haiku)으로 모델을 나누어 호출 비용·지연·전문성 기준으로 라우팅함.
  • 태그: 모델선택, 성능-비용, 아키텍처

  • 💡 [발견] 작업 단위로 에이전트 점진 확장

  • 초기 소수 에이전트에서 필요 기능을 확인한 뒤(예: analyst, report-writer 등) 추가로 8→12개로 확장하여 과도한 초기 복잡도를 피함.
  • 태그: 운영모델, 점진확장

  • 🔄 [개선] preemptive-compaction 훅으로 리소스 관리 자동화

  • preemptive-compaction 스크립트를 도입해 런타임/저장소 조각화 등을 사전 정리함으로써 장기 동작 안정성을 높임.
  • 태그: 자동화, 운영안정성

  • 📚 [교훈] 문서 확인 후 의사결정 변경

  • 초기에는 gpt-5.4 mini 공개 확인 불가로 판단했으나 공식 문서 재확인으로 상태를 정정함 — 공식 문서/공식 소스 검증을 최우선으로 할 것.
  • 태그: 검증, 실수방지

  • 🔧 [해결] 로컬 CLI 오버라이드로 모델 전환 지원

  • Codex CLI의 -m/--model 및 config.toml model 키를 활용해 로컬에서 모델 오버라이드를 적용하여 유연하게 실험·전환함.
  • 태그: 도구활용, 유연성

  • ⚖️ [판단] LLM 호출 통계로 신뢰성/성능 판단

  • 총 호출/성공률/프롬프트·응답량·평균 레이턴시를 모니터링해 모델별 비용·성능·신뢰도를 비교해 배치 결정에 반영함.
  • 태그: 관찰지표, 모니터링

  • 🔄 [개선] 리커버리 리포트 자동화와 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 복구 메커니즘의 신뢰도를 높임.
  • 태그: QA, 자동화테스트

  • 💡 [발견] 모델별 레이턴시 차이가 의사결정 요소

  • 같은 작업이라도 모델(github-copilot vs claude-sonnet)별 평균 레이턴시 차이가 크므로 실시간성 요구에 따라 모델을 선택해야 함.
  • 태그: 성능관찰, 선택기준

  • 📚 [교훈] 작업전문성과 도메인 적합성 확인

  • 새 프레임워크나 방법론을 도입할 때는 조직·도메인 적합성을 먼저 확인하고, 맞지 않으면 부분 적용(체리픽)으로 대체하는 것이 안전함.
  • 태그: 거버넌스, 리스크관리

2026-03-19

  • 🔧 [해결] OMC 전체 도입 대신 체리픽으로 해결
  • OMC를 전체 도입하지 않고 도메인 적합한 3가지 기능만 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 우선 구현함으로써 개발 비용과 폭을 줄이고 실용적 이득을 확보함.
  • 태그: OMC, 체리픽, 비용절감

  • 🔧 [해결] 모델 능력에 따라 3단계 라우팅 적용

  • 업무 특성·지연시간에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 요청을 라우팅해 각 모델의 강점을 살리고 전체 처리 효율을 높임.
  • 태그: 모델라우팅, 성능기반

  • ⚖️ [판단] 전체 적용 vs 부분 적용 판단은 도메인 적합성 기준으로 결정

  • 새 기법(OMC 등)을 도입할 때 '팀/코드의 전문성(도메인 적합성)'을 우선 판단 기준으로 삼아, 적합하지 않으면 전체 도입 대신 핵심만 체리픽하기로 함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 호출 통계에서 지연시간·성공률 차이 관찰

  • 같은 워크로드에서도 모델별 평균 레이턴시와 호출 수가 크게 달라 라우팅·비용·최적화 판단에 직접적인 근거가 됨(예: cliproxy/claude-sonnet-4-6이 낮은 레이턴시를 보임).
  • 태그: 계측, 모델선택

  • 🔄 [개선] preemptive-compaction 훅으로 프롬프트·토큰 절감 시도

  • 프롬프트 총량과 응답량이 큰 작업에서 preemptive-compaction 훅을 추가해 입력을 압축·정리함으로써 호출 비용과 레이턴시를 낮추려는 워크플로우 개선을 도입함.
  • 태그: 프롬프트최적화, 스크립트훅

  • 📚 [교훈] 공식 문서 확인 후에도 즉시 정정 가능성 염두

  • 초기에는 gpt-5.4 mini 공개 불가로 기록했으나 곧 문서에서 공개 표기를 확인해 정정함 — 외부 문서 결과는 실시간 변경 가능하므로 확정 전 재검증 루틴을 두어야 함.
  • 태그: 검증절차, 문서확인

  • 🔧 [해결] Codex CLI의 모델 오버라이드로 로컬 모델 전환

  • 로컬 Codex는 -m/--model 플래그와 config.toml의 model 키로 모델을 바꿀 수 있어, 환경에서 빠르게 모델을 교체해 테스트하거나 전환할 수 있게 함.
  • 태그: 도구사용, 모델오버라이드

  • 💡 [발견] 프롬프트·호출량 증가와 에러/성공률 변화 연관성

  • 세션별로 프롬프트 총량과 호출 수가 급증한 시점에 에러 수·성공률이 달라져 대규모 호출 시 안정성·비용·에러 관리 대책이 필요함을 확인함.
  • 태그: 운영관찰, 스케일링

2026-03-19

  • 🔧 [해결] 특정 기능만 체리픽해서 도입
  • 전체 OMC 도입은 불필요하다고 판단될 때, 도메인 맞춤성을 고려해 핵심 3가지만 선별해(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 적용하여 비용과 복잡도를 줄임
  • 태그: 체리픽, 최소화, 효율

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단, 분석·디버깅, 빠른 실행 등 역할별로 모델/에이전트를 나눠(Opus/Sonnet/Haiku) 각 모델의 강점에 맞춰 파이프라인을 구성함
  • 태그: 모델선택, 역할기반, 성능배치

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 로컬에서 모델 변경 가능함을 확인하여 배포·테스트 유연성 확보
  • 태그: 툴제약, 설정

  • 🔄 [개선] preemptive-compaction 훅 추가로 자원관리 최적화

  • 작업 흐름에 preemptive-compaction 스크립트/훅을 넣어 시스템 상태를 사전에 정리·압축함으로써 호출 비용과 레이턴시 예측 가능성 개선
  • 태그: 자원관리, 자동화

  • 🔧 [해결] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 스크립트를 작성하고 recovery_collector에 대해 유닛·통합 테스트를 추가해 복구 프로세스의 신뢰성을 동시에 확보
  • 태그: 테스트, 복구, 자동화

  • 💡 [발견] LLM 호출 통계로 모델 적합성 평가

  • 모델별 호출수·성공률·평균 레이턴시를 주기적으로 비교해 고레이턴시 모델을 심층 작업에 배치하거나 대체하는 근거로 사용
  • 태그: 관찰, 계량평가

  • 📚 [교훈] 문서 확인 먼저 → 정정·업데이트

  • 초기 조사에서 공개 여부를 확정하지 않았으나 이후 공식 문서 확인으로 정정함. 중요한 외부 사실은 직접 공식 소스 확인 후 의사결정에 반영해야 함
  • 태그: 검증, 실수교정

  • ⚖️ [판단] 체크포인트: 전체 도입 vs 부분 도입

  • 새 체계 도입 시 도메인 적합성과 내부 역량을 기준으로 전체 전면 도입이 아닌 체리픽(부분 도입)을 우선 검토함
  • 태그: 도입결정, 비용편익

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 핵심만 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때 전면 적용 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 효과 큰 3가지만 선별해 적용하여 비용·리스크를 줄임.
  • 태그: 적용전략, 범위결정, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 작업 성격에 따라 계층화

  • 심층 판단(오퍼스)/분석·디버깅(손넷)/빠른 실행(하이쿠)처럼 작업 특성(심층 vs 분석 vs 빠른실행)을 기준으로 모델 라우팅 정책을 설계함.
  • 태그: 모델선택, 라우팅, 성능기준

  • 💡 [발견] 모델별 평균 레이턴시 차이가 작업 배치 기준이 됨

  • 동일 세션에서 모델별 호출·레이턴시 통계를 수집하니 레이턴시가 짧은 모델은 반복적/대량 호출에 적합하고, 레이턴시 긴 모델은 심층 요청에 할당하는 것이 효율적이라는 사실을 확인.
  • 태그: 관찰, 성능최적화, 모니터링

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화해서 확장

  • 단순 수량 확장(8→12) 대신 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 추가해 책임과 기능을 분리함으로써 운영·디버깅 효율을 높임.
  • 태그: 조직구조, 확장전략, 분리정책

  • 🔧 [해결] 모델 공개 여부 불확실성 → 로컬 지원 기능 우선 검증

  • 원격(공식) 문서의 공개 여부가 불확실할 때는 로컬 도구(Codex CLI)의 모델 오버라이드 지원 여부를 먼저 확인해 실제로 대체 가능한지 판단함.
  • 태그: 운영우선순위, 대응전략

  • 📚 [교훈] 문서 기반 판단은 수시로 재검증해야 함

  • 08:15에 공개 확인 불가로 기록했다가 08:16에 정정 발생 — 외부 문서 상태는 시시각각 바뀌므로 중요한 판단은 즉시 재검증 프로세스를 두어 정정 비용을 줄여야 함.
  • 태그: 검증절차, 정확성

  • 💡 [발견] LLM 호출 통계로 안정성과 병목을 파악할 수 있음

  • 총 호출·성공률·프롬프트·응답량·에러·모델별 레이턴시를 정리하면 어떤 모델이 병목인지, 에러 패턴이 있는지를 빠르게 파악해 대응 우선순위를 정할 수 있음.
  • 태그: 관찰, 운영모니터링

  • 🔄 [개선] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector에 유닛·통합 테스트를 추가해 재현성 높은 복구 파이프라인을 만들려는 흐름 — 자동화와 테스트 병행으로 신뢰성을 높임.
  • 태그: 자동화, 테스트, 복구

2026-03-19

  • 🔧 [해결] 복잡한 모델 도입 대신 체리픽으로 핵심만 도입
  • OMC 전체 도입은 도메인 불일치로 보류하고, 필요한 기능 3가지만 선별(cherry-pick)해 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 비용과 적합성에 따라 부분 도입으로 위험을 줄이는 전략.
  • 태그: 모델설계, 리스크관리, 체리픽

  • ⚖️ [판단] 모델 라우팅은 작업 성격 기반으로 분리

  • 작업 성격(심층 판단 vs 분석·디버깅 vs 빠른 실행)에 따라 Opus/Sonnet/Haiku로 3단계 모델 라우팅을 적용해 성능·지연·비용을 최적화한다.
  • 태그: 모델선택, 라우팅, 성능

  • 💡 [발견] 모델별 레이턴시·호출 집중도 차이 관찰

  • 같은 워크로드에서 cliproxy/claude-sonnet-4-6은 호출 수가 많고 평균 레이턴시가 짧은 반면 github-copilot/gpt-5-mini는 레이턴시가 길게 나타남 — 모델 역할을 분리하면 효율화 가능.
  • 태그: 모니터링, 성능분석

  • 🔄 [개선] 에이전트 확장으로 역할을 세분화

  • 에이전트를 8개에서 12개로 늘려 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 분명히 함으로써 책임 분리와 병렬 처리 개선.
  • 태그: 아키텍처, 스케일링, 책임분리

  • 🔧 [해결] 로컬 CLI와 문서로 모델 오버라이드 문제 해결

  • Codex CLI의 -m/--model 및 config.toml의 model 키로 로컬에서 모델 오버라이드가 가능함을 확인해 모델 변경 불확실성을 해소함(문서 확인→설정 변경 흐름).
  • 태그: 운영, 도구사용

  • 📚 [교훈] 공식 문서 확인을 통한 의사결정 정정 필수

  • 초기에는 gpt-5.4 mini 공개 여부를 확인 못했으나 공식 문서 재확인으로 정정함 — 외부 정보에 대해 즉시 1차 결론을 내기보다 문서 확인 루틴을 갖춰야 함.
  • 태그: 신뢰성, 절차, 교정

  • 🔧 [해결] 회복(recovery) 리포트 자동화와 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행해 자동화 신뢰성을 확보하는 패턴.
  • 태그: 자동화, 테스트, 복구

  • 💡 [발견] LLM 호출 성공률과 에러 분포로 신뢰도 판단 가능

  • 세션별 총 호출·성공률·에러 수 통계를 통해 시스템 신뢰성(예: 일부 모델에서 0% 성공률 표기)을 발견하고 문제 모델/경로를 식별하는 근거로 삼음.
  • 태그: 관찰, 계측, 운영

  • ⚖️ [판단] 도메인 적합성 우선의 기능 선택 기준

  • 기능을 도입할 때 코드 개발 전문성과 도메인 적합성을 기준으로 전체 도입 여부를 결정하고, 비적합 시 핵심 기능만 선택해 적용하기로 판단.
  • 태그: 의사결정기준, 도메인적합성

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 선별 구현
  • 전체 OMC 도입이 도메인에 맞지 않을 때 핵심 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 빠르게 구현하여 비용과 리스크를 줄임.
  • 태그: 작업선택, 리스크절감, 체리픽

  • 🔧 [해결] 모델 역량에 따라 역할 분리 라우팅

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 모델별로 책임을 나눠 3단계 라우팅을 적용하여 효율과 응답속도 최적화.
  • 태그: 아키텍처, 모델라우팅, 성능

  • ⚖️ [판단] 전체 도입 vs 부분 체리픽 판단 기준

  • 도메인 적합성(코드 개발 전문성 여부)을 기준으로 전체 도입이 불필요하면 범위를 좁혀 주요 기능만 체리픽으로 가져감.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 로컬에서 모델 변경이 가능하다는 사실 확인.
  • 태그: 툴링, 운영

  • 🔄 [개선] 프롬프트·호출 통계로 모델 운영 최적화

  • 모델별 호출 수·성공률·레이턴시를 모니터링해 호출 분배와 엔진 선택을 조정함(예: 레이턴시 낮은 Sonnet에 분석 부하 집중).
  • 태그: 관찰가능성, 운영개선, 모니터링

  • 🔧 [해결] 자동화 스크립트→유닛/통합 테스트 흐름 정착

  • recovery 리포트 자동화 스크립트 작성 후 recovery_collector에 대해 유닛·통합 테스트를 작성해 신뢰도를 확보함.
  • 태그: 테스트, 자동화, 신뢰성

  • 💡 [발견] 모델별 실패·성공 패턴이 시간대별로 변동

  • 같은 날 반복된 통계에서 모델별 성공률·에러 수가 세션마다 달라지는 것을 기록 — 운영 중 세션별 비교가 필요함.
  • 태그: 관찰, 성능분석

  • 📚 [교훈] 빠른 정정(정보 업데이트)은 혼란을 줄임

  • 초기에 gpt-5.4-mini 공개 불가로 기록했다가 공식 문서에서 공개 표기가 확인되어 정정한 사례 — 문서 기반 확인 후 의사결정 로그를 업데이트해야 혼선이 줄어듦.
  • 태그: 문서검증, 투명성, 교정

  • 🔄 [개선] 작업 확장 시 역할 세분화로 확장성 확보

  • 에이전트 수를 8→12로 늘리면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 같은 전담 역할을 추가해 확장 시 책임과 기능을 분리함.
  • 태그: 조직화, 확장성

  • 🔧 [해결] 사용자 불만(종목 누락)은 섹터 맵으로 응답

  • 특정 종목 누락 불만에 대해 섹터별 수혜주 맵(방산·에너지·금·사이버 등)을 제시하여 맥락과 대체 종목을 함께 제공함으로써 불만을 해소함.
  • 태그: 사용자응대, 정보구성

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 축소 적용
  • OMC 전체 도입 대신 도메인 적합한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 범위를 줄임.
  • 태그: 범위관리, 우선순위, 효율

  • ⚖️ [판단] 모델 라우팅은 작업 성격으로 결정

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 작업 특성(심층 vs 분석 vs 실행)에 따라 모델 라우팅을 분리하기로 판단.
  • 태그: 모델선택, 라우팅, 성능

  • 💡 [발견] Codex CLI는 로컬에서 모델 오버라이드 지원

  • Codex CLI가 -m/--model 옵션과 config.toml의 model 키로 모델 변경을 허용함을 확인하여 로컬 테스트와 전환이 가능함을 발견.
  • 태그: 도구기능, 운영

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분화

  • 에이전트 수를 8→12로 늘리고 analyst/report-writer/pipeline-debugger-deep/cron-doctor-deep 등을 추가하여 책임과 전문성을 분리함으로써 작업 처리 병렬성과 책임 경계를 개선.
  • 태그: 아키텍처, 스케일링

  • 🔧 [해결] preemptive-compaction으로 리소스 사전정리

  • preemptive-compaction 훅을 추가해 세션·메모리·프롬프트 크기 같은 자원 사용을 사전에 압축·정리하도록 하여 호출 비용과 레이턴시를 낮춤.
  • 태그: 성능, 자원관리

  • 📚 [교훈] 문서 확인·재확인으로 정보 변경 감지

  • gpt-5.4-mini 공개 여부가 초기에는 불확실했으나 문서 재확인으로 공개 표기가 확인되어, 의사결정 전에 공식 문서 재검증의 필요성을 확인함.
  • 태그: 검증, 절차

  • 💡 [발견] 모델별 레이턴시 차이가 운영 영향

  • 실제 호출 통계에서 cliproxy/claude-sonnet-4-6의 평균 레이턴시가 더 낮아 대량 호출 시 비용·처리속도에 차이를 만듦을 확인.
  • 태그: 관측, 운영효율

  • 🔄 [개선] 복구 리포트·테스트 자동화 병행

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 병행하여 장애 감지→보고→검증 흐름을 자동화하고 재현성을 확보함.
  • 태그: 테스트, 자동화, 신뢰성

2026-03-19

  • 🔧 [해결] 대규모 모델 도입 대신 핵심만 체리픽
  • 전체 OMC 방식을 전면 도입하지 않고 도메인 적합성(코드 개발 전문성 부족)을 이유로 핵심 3가지만 선택해 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 변경 비용과 도메인 적합성을 우선해 최소 구현으로 문제 해결.
  • 태그: 리소스절약, 최소화, 도메인적합성

  • 🔧 [해결] 모델 역할을 단계별로 라우팅

  • 작업 특성에 따라 모델 라우팅 규칙을 도입: Opus는 심층 판단, Sonnet은 분석·디버깅, Haiku는 빠른 실행으로 분배해 각 모델 강점을 살려 처리 효율과 성공률을 높임.
  • 태그: 모델라우팅, 역할분배, 성능최적화

  • ⚖️ [판단] 도입 여부는 도메인 적합성과 비용-편익으로 결정

  • OMC 전체 도입 대신 도메인 적합성(코드 개발과의 연관성)과 구현 비용을 기준으로 일부만 체리픽하기로 판단한 의사결정 기준.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 프롬프트·응답 크기와 호출 수는 작업 유형별로 크게 다름

  • 세션별 프롬프트 총량·응답 총량·호출 수가 작업(리커버리 스크립트, 테스트 작성, 에이전트 확장 등)에 따라 크게 변하며 모델별 평균 레이턴시 차이도 관찰됨(예: sonnet 레이턴시 짧음).
  • 태그: 측정지표, 모니터링, 성능관찰

  • 🔄 [개선] 빠른 실행용과 심층용 에이전트 분리로 확장성 확보

  • 에이전트 수를 8→12로 확장하고 역할을 세분화(analyst, report-writer, pipeline-debugger-deep 등)해 작업 병렬화와 책임 분리를 통해 확장성과 유지보수성을 개선.
  • 태그: 아키텍처, 스케일링, 책임분리

  • 📚 [교훈] 공식 문서 확인 뒤에도 정정·재확인이 필요함

  • 초기에 gpt-5.4 mini 공개 여부를 확인 불가로 기록했다가 이후 공식 문서에서 공개 표기 확인으로 정정. 문서 기반 결론은 재확인 루프를 둬야 함.
  • 태그: 검증, 문서확인, 절차

  • 📚 [교훈] 모든 변화는 자동화 스크립트와 테스트로 뒷받침해야 함

  • recovery 리포트 자동화와 recovery_collector 유닛/통합 테스트 작성 진행으로, 수작업 의존 변경은 자동화 및 테스트로 보완해야 재현성과 안정성이 확보됨.
  • 태그: 자동화, 테스트, 신뢰성

  • 💡 [발견] 모델별 성공률·레이턴시 실측으로 실사용 라우팅 정책 수립 가능

  • 로그 통계에서 모델별 호출·성공률·레이턴시를 수집해 실제 작업에 맞춘 라우팅(예: 응답 빠른 모델은 실시간 태스크에) 정책을 만들면 효율 향상 가능.
  • 태그: 데이터기반, 정책수립, 모델선택

  • 🔄 [개선] 프롬프트 사용량·응답량 모니터링을 표준 절차로

  • 세션별 프롬프트·응답 문자 수와 에러 수를 주기적으로 집계해 LLM 비용·성능 지표로 활용하도록 워크플로우에 포함시키는 개선안.
  • 태그: 관측가능성, 비용관리, 운영절차

2026-03-19

  • 🔧 [해결] 도메인 불일치시 체리픽으로 핵심 기능만 도입
  • 전체 OMC 도입은 도메인 불일치로 배제하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지 핵심만 선택해 적용함으로써 개발 비용과 리스크를 줄이고 가치 있는 부분만 재사용 가능하게 함
  • 태그: 체리픽, 리스크관리, 모듈화

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 결정

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 작업 성격(심층 vs 분석 vs 빠른 실행)을 기준으로 모델 라우팅 구조를 설계하면 호출 효율과 응답 레이턴시를 최적화할 수 있음
  • 태그: 모델선택, 라우팅, 성능

  • 💡 [발견] 모델별 호출 통계는 운영 인사이트 제공

  • 모델별 호출 수·성공률·평균 레이턴시 통계를 수집해 어떤 모델이 어떤 작업에 효율적인지 파악했고, 이를 기반으로 에이전트 확장과 라우팅 정책을 조정함
  • 태그: 관찰, 운영, 메트릭

  • 🔄 [개선] 사전 정리 스크립트(preemptive-compaction)로 프롬프트 비용 절감

  • preemptive-compaction 훅을 추가해 프롬프트 총량을 줄이고 LLM 호출 비용·레이트 문제를 완화하는 워크플로우로 전환함(프롬프트 정형화 및 불필요 컨텍스트 제거)
  • 태그: 프롬프트관리, 비용절감, 자동화

  • 📚 [교훈] 공식 문서/로컬 확인 순서와 재확인 필요

  • 초기에 gpt-5.4-mini 공개 여부를 로컬 확인으로 판단했다가 공식 문서 확인으로 정정한 사례: 외부 공개 여부는 공식 소스 우선 확인하고 로컬 설정은 보조 근거로 삼을 것
  • 태그: 검증, 외부문서, 절차

  • 🔄 [개선] 에이전트 확장 시 역할 특화로 스케일

  • 단일 에이전트에서 기능을 늘리는 대신 analyst, report-writer, pipeline-debugger-deep 등 역할별로 에이전트를 늘려 책임을 분리하고 테스트·디버깅을 용이하게 함
  • 태그: 아키텍처, 스케일링, 책임분리

2026-03-19

  • 🔧 [해결] 대규모 도입 대신 체리픽으로 핵심만 적용
  • 전체 OMC 방식 도입이 도메인에 맞지 않을 때는, 핵심 3가지를 선별(cherry-pick)해 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 비용과 복잡도를 낮추고 효과는 유지함.
  • 태그: 체리픽, 설계결정, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 선택

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 모델 능력과 역할(심도·속도)에 따라 3단계 라우팅을 적용해 성능과 효율을 맞춤.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원함을 확인하여, 환경에서 모델을 바꿔 실험 가능한 사실을 발견함.
  • 태그: 도구능력, 환경설정

  • 🔄 [개선] 복구 리포트·테스트 자동화로 안정성 강화

  • recovery 리포트 자동화 스크립트와 recovery_collector의 유닛/통합 테스트를 작성해 장애 복구 프로세스의 신뢰도를 높이고 수동 작업을 줄였음.
  • 태그: 자동화, 테스트, 운영

  • 📚 [교훈] 문서 확인 전 의사결정은 정정 가능성 있음

  • 08:15에 gpt-5.4-mini 공개 확인 불가라 판단했다가 08:16에 공식 문서에서 공개 표기를 확인하여 정정함 → 외부 문서·근거를 재확인하고 변경사항을 즉시 로그에 남겨야 함.
  • 태그: 검증, 정정, 운영절차

  • 🔧 [해결] 사용자 불만에는 사과 후 범위 넓혀 대응

  • 사용자(Q1) 지적에 대해 먼저 사과하고(잘못 인지 인정), 누락된 영역(전쟁 수혜주 전체 맵)을 정리해 제공함으로써 신뢰 회복과 정보 전달을 동시에 달성함.
  • 태그: 유저응대, 서비스복구

  • 💡 [발견] 모델별 호출·성공률·레이턴시 모니터링은 운영 신호

  • 세션별 LLM 호출 통계(총 호출·성공률·프롬프트·응답량·에러수)와 모델별 상세 수치를 기록해 모델 선택·재시도·추가 최적화 판단에 활용할 수 있음.
  • 태그: 관찰가능성, 모니터링, 운영지표

2026-03-19

  • 🔧 [해결] 필요없는 전체 도입 대신 체리픽으로 핵심만 적용
  • OMC를 전체 도입하지 않고 도메인에 맞는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 비용과 복잡도를 줄였음.
  • 태그: 설계결정, 범위관리, 효율성

  • ⚖️ [판단] 모델 라우팅은 역할/목적 기준으로 분리

  • 심층 판단, 분석·디버깅, 빠른 실행 등 작업 성격에 따라 Opus/Sonnet/Haiku로 모델 라우팅을 결정하여 각 모델에 적합한 책임을 부여함.
  • 태그: 모델선택, 운영정책

  • 💡 [발견] 모델별 레이턴시와 호출 패턴의 실무적 차이

  • cliproxy/claude-sonnet-4-6는 호출량이 많고 평균 레이턴시가 짧았고, github-copilot/gpt-5-mini는 레이턴시가 길지만 안정적 호출을 보였음 — 작업 종류에 따라 모델 선택의 트레이드오프가 존재함.
  • 태그: 모델성능, 관찰

  • 🔄 [개선] 에이전트 확장으로 역할을 세분화

  • 기능별 에이전트를 8개에서 12개로 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)해 책임을 분리하고 병렬 처리·전문화 촉진.
  • 태그: 아키텍처, 스케일링

  • 🔧 [해결] 로컬 툴로 빠른 모델 오버라이드 지원 확인

  • Codex CLI의 -m/--model 옵션과 config.toml의 model 키를 활용해 로컬에서 모델 변경을 바로 적용하도록 확인·활용함으로써 신속한 실험이 가능해짐.
  • 태그: 도구사용, 실험

  • 📚 [교훈] 문서 확인 → 정정 루프의 중요성

  • 08:14에 gpt-5.4 mini 공개 여부를 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기를 확인하며 정정함 — 중요한 사실은 즉시 문서 근거로 검증하고 기록해야 함.
  • 태그: 검증, 품질관리

  • 💡 [발견] 대화형 응답은 길고 상세할수록 섹터 맵 제공에 유용

  • 사용자 질문에 대해 섹터별 표와 핵심 요약(방산·에너지·금·사이버 등)을 제공하자 불만 해소와 정보 전달 효과가 높았음 — 긴 답변이지만 구조화하면 가독성 유지 가능.
  • 태그: 사용자응대, 콘텐츠구조

  • 🔄 [개선] 자동화 스크립트와 유닛테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector의 유닛/통합 테스트를 작성해 자동화 코드의 신뢰성을 확보함.
  • 태그: 테스트, 자동화

  • 📚 [교훈] 성공률·에러 통계는 의사결정 근거로 사용

  • 모델별 호출·성공률·에러 수·프롬프트/응답량 통계를 주기적으로 집계하니 문제 식별(예: 일부 모델 0% 성공률)과 운영 조치가 쉬워짐.
  • 태그: 모니터링, 운영관리

2026-03-19

  • 🔧 [해결] 복잡한 모델 운영 문제 → 핵심 기능만 체리픽하여 먼저 적용
  • OMC 전체 도입이 도메인에 맞지 않다고 판단할 때, 전체를 도입하려고 하지 말고 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction'처럼 실질적 가치가 큰 3가지를 우선 구현해 위험과 비용을 줄임.
  • 태그: 모델운영, 우선순위, 리스크관리

  • ⚖️ [판단] A vs B 비교 시 도메인 적합성으로 결정

  • 새 기술·방식(A)을 도입할지(B 기존)를 결정할 때 '우리 팀의 전문성/도메인 적합성'을 우선 기준으로 삼아 도입 범위를 조절함(예: OMC 전체 불필요 → 체리픽).
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델 라우팅은 역할 특화로 성능·레이턴시 최적화 가능

  • 세 단계(심층 판단: Opus, 분석·디버깅: Sonnet, 빠른 실행: Haiku)로 모델을 라우팅하면 각 모델의 강점을 살려 호출 성공률과 레이턴시 효율을 개선할 수 있음.
  • 태그: 모델라운팅, 성능최적화

  • 🔄 [개선] 대규모 LLM 호출 통계 모니터링 → 모델별 역할·호출분배 조정

  • 호출수·성공률·평균 레이턴시를 주기적으로 집계해 레이턴시가 큰 모델에는 심층 작업만 할당하고, 빠른 응답이 필요한 작업은 저지연 모델로 분리하는 방식으로 운영 워크플로우를 개선함.
  • 태그: 관찰성, 운영개선, 모니터링

  • 🔧 [해결] 복구 리포트 자동화 필요 → 스크립트+유닛테스트로 대응

  • recovery 리포트 자동화와 recovery_collector 유닛/통합 테스트를 도입해 수동 리포트의 반복 작업을 제거하고 신뢰도를 높임.
  • 태그: 자동화, 테스트

  • 💡 [발견] 프롬프트·응답 총량 대비 모델별 효율 차이 존재

  • 같은 작업 범위라도 모델별로 프롬프트 총량·응답량·레이턴시가 크게 다르므로 비용·속도 측면에서 모델 선택 영향이 큼(로그에 호출·문자 수·레이턴시 차이 기록).
  • 태그: 비용관리, 모델선택

  • 📚 [교훈] 공식 문서 확인 지연 → 정보 정정 필요 발생

  • 08:15에 gpt-5.4 mini 공개 불가로 기록했다가 08:16에 공개 표기 확인으로 정정함. 외부 문서 확인은 즉시 다시 검증하는 절차를 두어 정정 부담을 줄여야 함.
  • 태그: 검증절차, 문서확인

  • ⚖️ [판단] 종목 추천·응답 실수 → 사과+보완정보 제공

  • 사용자 불만(예: 특정 종목 누락)이 발생하면 즉시 사과하고 관련 섹터·대표 종목·핵심 근거를 정리해 제공하는 방식으로 신뢰를 회복함.
  • 태그: 고객대응, 컨텐츠보완

2026-03-19

  • 🔧 [해결] 대규모 기능 도입 대신 핵심만 체리픽해서 도입한다
  • 전체 OMC를 한 번에 도입하지 않고 도메인 적합성(코드 개발 전문성 여부)을 고려해 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 3가지만 선택해 우선 구현함으로써 비용·리스크를 줄이고 빠른 가치 창출을 목표로 했다.
  • 태그: 체리픽, 리스크관리, 점진도입

  • 🔧 [해결] 모델 역할별 라우팅으로 작업 분담

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 모델·에이전트별 역할을 명확히 나눠 호출을 최적화하고 작업 유형에 맞는 모델을 라우팅함으로써 효율과 응답 품질을 개선했다.
  • 태그: 모델라우팅, 작업분담, 성능최적화

  • ⚖️ [판단] 도입 여부 판단은 도메인 적합성으로 결정

  • 새 기법이나 툴 도입 시 '우리 팀의 주된 도메인(코드 개발)과의 적합성'을 우선 검사해, 적합하지 않으면 전면도입을 포기하고 필요한 부분만 선택적으로 적용한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 프롬프트·응답량과 호출수는 모델별로 큰 편차를 보인다

  • 세션 통계에서 모델별 호출수·프롬프트 총량·응답량·레이턴시가 크게 달라 특정 모델에 부담이 쏠릴 수 있으며, 모델 선택은 호출 비용·지연·성공률을 같이 고려해야 함이 드러났다.
  • 태그: 모니터링, 비용관리, 모델성능

  • 🔄 [개선] 복구·리포트 자동화와 유닛 테스트 병행

  • recovery 리포트 자동화 스크립트 개발과 recovery_collector의 유닛/통합 테스트 작성을 병행해 자동화 신뢰도를 올리고 수동 점검 부담을 줄이려는 워크플로우 개선을 적용했다.
  • 태그: 자동화, 테스트, 신뢰성

  • 📚 [교훈] 공식 문서 확인을 반복해 정정·확인을 남겨라

  • 초기에 'gpt-5.4 mini 공개 불가'로 기록했다가 공식 문서를 다시 확인해 '공개 표기 확인'으로 정정한 사례에서 보듯, 외부 정보(모델 공개 여부 등)는 즉시 확정하기보다 문서·공식 채널을 재검증하고 변경 내역을 남겨야 혼선이 줄어든다.
  • 태그: 검증절차, 문서화, 정보정정

  • 💡 [발견] 특정 이벤트(전쟁·공급차질)가 섹터별로 즉각적인 시장 반응을 유발한다

  • 대화에서 전쟁·가스전 피격 등 사건이 방산·에너지·비료·금 등 섹터에 뚜렷한 수혜/충격을 줌이 관찰되어, 뉴스 이벤트 → 섹터 영향 맵핑을 정규화하면 빠른 종목 추천·리스크 알림에 사용 가능하다.
  • 태그: 인시던트대응, 투자분석, 이벤트매핑

  • 🔧 [해결] 사용자 불만(특정 종목 누락) 대응은 즉시 사과·보완 자료 제공

  • 사용자 질문에서 특정 종목(Vg) 누락에 대해 즉시 사과하고 관련 섹터 전체 맵과 주요 종목 리스트를 제공해 신뢰를 회복하고 요구를 충족시켰다 — 고객 커뮤니케이션 템플릿화 가능.
  • 태그: 고객대응, 커뮤니케이션, 템플릿

2026-03-19

  • 🔧 [해결] 복잡한 모델 도입은 체리픽으로 시작
  • 전체 OMC 도입 대신 도메인 적합한 핵심 기능 3가지를 선별해 먼저 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 전체 전환 전에 작은 범위로 검증해 리스크와 비용을 줄임.
  • 태그: 모델전략, 점진도입, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단(Opus)/분석·디버깅(Sonnet)/빠른 실행(Haiku)처럼 작업 특성(심층 vs 분석 vs 빠른실행)에 따라 모델 라우팅을 결정하면 효율과 응답시간을 최적화할 수 있다.
  • 태그: 모델선택, 성능최적화

  • 💡 [발견] 프롬프트·응답 비율이 호출 비용과 성능 지표로 연결됨

  • 프롬프트 총량과 응답 총량, 호출 수·성공률·레이턴시를 함께 기록하면 어떤 모델이 비용-성능 트레이드오프에서 유리한지 판단하기 쉬움(예: sonnet은 레이턴시 낮음).
  • 태그: 계측, 모니터링

  • 🔄 [개선] 로컬 CLI로 빠른 모델 오버라이드 허용

  • Codex CLI에서 -m/--model 및 config.toml로 모델을 바꿀 수 있음을 확인해두면 공식 문서 반영 전에도 실험·롤아웃이 가능해짐. 운영 유연성 개선.
  • 태그: 운영, 실험

  • 🔧 [해결] 리포트·리커버리 자동화로 반복작업 제거

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛 테스트를 작성해 수동 리포트 생성과 검증 비용을 줄였음.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 초기 정보 오류는 빠른 정정 프로세스를 둬야 함

  • gpt-5.4 mini 공개 여부가 초기에는 확인 불가로 기록되었으나 곧 정정됨. 공식 문서 확인과 기록 변경 로그 프로세스를 명확히 해야 혼선이 줄어듦.
  • 태그: 검증, 운영절차

  • 💡 [발견] 모델별 성공률·레이턴시 편차가 큼

  • 같은 세션이라도 모델별 호출 성공률과 평균 레이턴시가 크게 다르므로, 중요 작업은 성공률·레이턴시 기준으로 모델을 선택해야 함(예: 일부 모델 호출 0% 성공률 사례 존재).
  • 태그: 성능측정, 신뢰성

  • ⚖️ [판단] 도메인 불일치면 전체 채택보다 부분 채택

  • OMC 방식이 전체 도입할 만큼 도메인에 맞지 않다면 관련 기능만 체리픽해서 적용하는 것이 합리적이라는 의사결정 기준이 반복되어 적용됨.
  • 태그: 의사결정, 도메인적합성

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 핵심만 체리픽해서 도입
  • OMC 전체 도입이 도메인과 맞지 않을 때는 전체를 적용하지 않고, 도메인에 맞는 핵심 기능 3가지만 선별(cherry-pick)해 구현한다. (예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)
  • 태그: 도입전략, 최소한의변경, 우선순위

  • 🔧 [해결] 모델 유형별로 라우팅해 역할 분담

  • 작업 성격에 따라 모델 라우팅(예: Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)을 적용하여 각 모델의 강점을 살려 요청을 처리한다.
  • 태그: 모델라우팅, 역할분담, 성능최적화

  • ⚖️ [판단] 전체 도입 vs 체리픽 결정은 도메인 적합성으로 판단

  • A(전체 OMC 도입)와 B(체리픽 도입)를 비교할 때 도메인 적합성(코드 개발 전문성 여부)을 기준으로 결정한다. 도메인 불일치면 체리픽을 선택.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·성공률 차이 관찰

  • 세션 통계에서 모델별 호출 수와 평균 레이턴시가 크게 달라 모델 선택이 성능·응답속도에 직접 영향함이 확인됨(예: cliproxy/claude-sonnet-4-6은 낮은 레이턴시).
  • 태그: 모니터링, 모델성능

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 단일 에이전트에서 여러 역할을 담당하던 구조를 에이전트 확장(8→12)으로 분리하여 책임을 명확히 하고 특화된 작업에 맞춘 에이전트를 배치함(analyst, report-writer, pipeline-debugger-deep 등).
  • 태그: 아키텍처, 책임분리, 확장성

  • 🔧 [해결] 복구 리포트 자동화 → 테스트 유닛 추가

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector에 대한 유닛/통합 테스트를 병행해 자동화의 신뢰성을 확보한다.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 문서·공식 확인 없이 초기결론 내리면 정정 필요

  • 08:14에 gpt-5.4 mini 공개 여부를 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기를 확인해 정정함. 즉시 공식문서/근거를 확인하는 절차가 필수임.
  • 태그: 검증절차, 실수방지

2026-03-19

  • 🔧 [해결] 문제별 모델 체리픽으로 효율화
  • OMC 전체 도입 대신 도메인 적합한 기능 3가지를 골라(cherry-pick) 도입함으로써 불필요한 복잡도를 줄이고 개발 속도 유지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 아키텍처, 단순화

  • 🔧 [해결] 모델 라우팅을 역할 기반으로 나눔

  • 요구에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 라우팅을 적용해 각 모델의 강점을 살림.
  • 태그: 모델선택, 라우팅

  • ⚖️ [판단] 전체 도입 vs 선택적 채택 기준

  • 새 방법을 전체 시스템에 도입할지 결정할 때 도메인 적합성과 개발 전문성 기준으로 판단 — 도메인과 맞지 않으면 일부 기능만 체리픽하여 적용.
  • 태그: 의사결정, 적합성

  • 💡 [발견] 모델별 레이턴시·호출 비율 차이 관찰

  • 같은 작업군에서도 모델별 평균 레이턴시와 호출 비율이 크게 달라 라우팅 설계 시 성능·비용을 고려해야 함(예: cliproxy/claude-sonnet-4-6이 짧은 레이턴시로 다수 호출).
  • 태그: 관찰, 성능

  • 🔄 [개선] 복구 리포트 자동화와 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector의 단위·통합 테스트를 병행해 자동화 신뢰도를 높임.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 문서 확인 후 정정 루프 필요

  • 초기에는 gpt-5.4-mini 공개 여부를 잘못 판단했다가 공식 문서를 재확인해 정정함 — 외부 문서 확인 및 정정 절차를 명문화해야 함.
  • 태그: 검증, 실수교정

  • 💡 [발견] LLM 호출 성공률·에러 분포는 세션별로 변동

  • 짧은 기간 누적 통계에서 성공률·에러 수·프롬프트량이 크게 달라 시스템 모니터링과 경고 임계치 설정이 필요함(예: 특정 모델에서 0% 성공률 사례 존재).
  • 태그: 모니터링, 운영

  • 🔧 [해결] 신규 에이전트 확장으로 역할 분담

  • 에이전트 수를 8→12개로 늘려 분석·리포트·디버깅·크론 진단 등 역할을 명확히 분담하여 병렬 작업과 책임 소재를 개선함.
  • 태그: 조직화, 스케일링

2026-03-19

  • 🔧 [해결] 체리픽으로 범위 축소
  • OMC 전면 도입 대신 도메인 적합성 기준으로 필요한 기능 3가지만 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 개발 비용과 복잡도 절감
  • 태그: 범위관리, 우선순위, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단에는 Opus, 분석·디버깅엔 Sonnet, 빠른 실행엔 Haiku처럼 모델을 기능별(역할)로 라우팅하여 성능·지연·비용을 균형있게 판단
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 모델별 레이턴시·성공률 차이 관찰

  • 같은 호출 집합에서 모델별 평균 레이턴시가 크게 다르며(예: gpt-5-mini는 지연 큼, sonnet-4-6은 빠름) 성공률/응답 품질을 함께 봐야 실제 운영비용이 최적화됨
  • 태그: 계측, 운영모니터링

  • 🔄 [개선] 에이전트 확장 시 역할을 세분화

  • 기존 단일 에이전트에서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등으로 분리해 책임을 명확히 하고 확장성·디버깅 생산성 향상
  • 태그: 조직화, 확장성

  • 🔧 [해결] 복구 리포트 자동화→테스트 우선 작성

  • recovery 리포트 자동화 스크립트 작성과 병행해 recovery_collector 유닛/통합 테스트를 먼저 만들어 자동화의 신뢰성 확보
  • 태그: 테스트, 자동화, 신뢰성

  • ⚖️ [판단] 공식 문서 재검증 후 의사결정 수정

  • 초기 판단에서 오픈AI 문서로 gpt-5.4 mini 비공개로 기록했다가 추가 확인으로 공개 표기 확인—공식 문서로 사실을 재검증하는 절차가 의사결정 신뢰도를 높임
  • 태그: 검증, 절차

  • 📚 [교훈] 빠른 결론 금지—공식 확인을 먼저

  • 모델 공개 여부 등 중요 사실은 초기 추정에 의존하지 말고 공식 문서나 도구(config)에서 확인한 뒤 결론을 내야 혼선·재작업을 줄임
  • 태그: 교훈, 검증절차

  • 💡 [발견] 프롬프트·응답 비율 편차

  • 프롬프트 총량에 비해 응답 총량이 훨씬 적어 프롬프트 작성 비용과 처리량이 운영 비용에 큰 영향을 줌—프롬프트 최적화의 필요성 시사
  • 태그: 프롬프트엔지니어링, 비용분석

2026-03-19

  • 🔧 [해결] 대규모 시스템은 필요한 기능만 체리픽해서 도입한다
  • OMC 전면 도입 대신 도메인에 맞는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 복잡도와 리스크를 줄임.
  • 태그: 체리픽, 리스크관리, 단계적도입

  • ⚖️ [판단] 모델 선택은 역할(심층판단/분석/빠른실행)과 레이턴시로 결정한다

  • 세 가지 라우팅(Opus/심층·Sonnet/분석·Haiku/빠른실행)을 도입해 작업 성격에 따라 모델을 배정하고, 모델별 평균 레이턴시와 성공률을 기준으로 실무에 맞게 운용함.
  • 태그: 모델라우팅, 성능기준, 운영정책

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 모델을 변경할 수 있어, 로컬 환경에서 모델 전환이 가능함을 확인함.
  • 태그: 도구속성, 운영팁

  • 🔄 [개선] 사전 압축(preemptive-compaction)과 에이전트 분리로 처리 효율 향상

  • preemptive-compaction 훅과 모델별 에이전트를 도입해 프롬프트/응답 볼륨을 줄이고 각 에이전트 책임을 명확히 해 성능·유지보수성을 개선함.
  • 태그: 성능최적화, 아키텍처

  • 📚 [교훈] 초기 정보 부정확성은 즉시 정정하고 로그로 남겨라

  • gpt-5.4-mini 공개 여부를 처음에 확인 불가로 기록했다가 이후 공식 문서에서 공개 표기가 확인되어 정정함 — 자료 확인과 정정 기록은 의사결정 추적에 필수적임.
  • 태그: 검증절차, 투명성, 로그기록

  • 🔧 [해결] 회복성 작업은 스크립트·유닛테스트로 자동화한다

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 장애 복구 보고·검증 절차를 자동화하여 재현성과 신뢰도를 높임.
  • 태그: 자동화, 테스트, 복구

  • 💡 [발견] 모델별 호출·성공률·레이턴시 모니터링은 운영 의사결정에 유용하다

  • 일별/세션별 모델 호출 통계를 수집해 특정 모델의 실패나 지연(예: gpt-5-mini 0% 성공률 항목)을 빠르게 식별하고 대응 가능함.
  • 태그: 관찰성, 메트릭, 운영

  • ⚖️ [판단] 도메인 불일치 시 전체 도입보다 부분 적용이 바람직하다

  • OMC 전체를 도입하기보다 코드 개발 도메인에 맞지 않는 부분은 배제하고, 필요한 부분만 적용해 비용·효율 균형을 맞춤.
  • 태그: 도메인적합성, 비용편익

2026-03-19

  • ⚖️ [판단] OMC 전체 도입 대신 필요한 3가지만 선택적 적용
  • OMC(Orchestrated Mixture of Cognition) 프레임워크 전체 도입이 아닌, 코드 개발 전문 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 체리픽하여 적용
  • 태그: 아키텍처, 선택적도입, 도메인맞춤

  • 🔄 [개선] 3단계 모델 라우팅으로 에이전트 확장 및 최적화

  • Opus(심층 판단 2개) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)의 3단계 모델 라우팅 도입으로 8개→12개 에이전트 확장. 각 모델의 성능과 비용을 고려한 계층적 할당
  • 태그: 모델라우팅, 에이전트확장, 비용최적화

  • 💡 [발견] 모델별 레이턴시 차이: GPT-5-mini(14ms) vs Claude-Sonnet(4ms)

  • github-copilot/gpt-5-mini의 평균 레이턴시는 11~14초대인 반면, cliproxy/claude-sonnet-4-6은 4초대로 약 3배 빠름. 동일 성공률(100%)에서 성능 차이 확인
  • 태그: 성능비교, 모델선택, 레이턴시

  • 📚 [교훈] 공식 문서 확인 후 정정: gpt-5.4-mini 공개 여부 재검증

  • 초기 OpenAI 공식 문서에서 gpt-5.4-mini 미공개로 판단했으나, 재확인 결과 2026-03-19 기준 공개 확인. 문서 변경 가능성을 고려한 재검증 필요
  • 태그: 문서검증, 정정, 신뢰성

  • 💡 [발견] Codex CLI는 -m/--model 및 config.toml로 모델 변경 지원

  • 로컬 Codex 환경에서 커맨드라인 옵션(-m/--model)과 설정 파일(config.toml의 model 키)을 통해 모델 오버라이드 가능
  • 태그: Codex, CLI설정, 모델변경

2026-03-19

  • ⚖️ [판단] OMC 전체 도입 대신 3가지만 체리픽
  • OMC(Orchestrated Model Collaboration) 전체 도입이 아니라 코드 개발 전문 도메인에 맞는 3가지만 선택: 모델별 에이전트 분리 + learner 패턴 추출 + preemptive-compaction
  • 태그: 아키텍처, 의사결정, 모델선택

  • 🔄 [개선] 3단계 모델 라우팅으로 비용·성능 최적화

  • Opus(심층 판단 2개) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)로 계층화하여 작업 복잡도에 따라 모델 할당. OMC 방식 적용으로 에이전트 8개→12개 확장
  • 태그: 최적화, 모델라우팅, 에이전트확장

  • 💡 [발견] Sonnet이 Copilot GPT-5-mini보다 레이턴시 3배 빠름

  • cliproxy/claude-sonnet-4-6 평균 4,040ms vs github-copilot/gpt-5-mini 평균 14,330ms. 대량 호출(329건 vs 32건) 환경에서 Sonnet의 효율성 입증
  • 태그: 성능, 모델비교, 레이턴시

  • 💡 [발견] 공식 문서 확인 필수: 모델 가용성 정보는 변동성 높음

  • gpt-5.4-mini 공개 여부를 08:15에 '확인 불가'로 답변했다가 08:16에 정정. OpenAI 공식 Models 문서에 실제 공개 표기 확인. 정보 검증 시 공식 문서 재확인 필요
  • 태그: 검증, 문서, 정정

  • 💡 [발견] Codex CLI는 -m/--model 및 config.toml로 모델 오버라이드 지원

  • 로컬 Codex 환경에서 모델 변경 가능. CLI 플래그(-m/--model)와 설정파일(config.toml의 model 키) 두 가지 방식 모두 지원
  • 태그: CLI, 설정, 모델변경

  • 📚 [교훈] 실패한 모델 호출(0% 성공률)은 조기에 제거하거나 폴백 처리

  • gpt-5-mini, qwen2.5:7b, openai-codex/gpt-5.4 등 0% 성공률 모델이 계속 호출됨. 실패 패턴 감지 후 해당 모델을 라우팅에서 제외하거나 폴백 메커니즘 추가 필요
  • 태그: 에러처리, 모니터링, 폴백

2026-03-19

  • ⚖️ [판단] OMC 전체 도입 대신 필요한 3가지만 선택적 적용
  • OMC(Orchestrated Model Collaboration) 프레임워크 전체를 도입하지 않고, 코드 개발 전문 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 체리픽하여 적용
  • 태그: 아키텍처, 의사결정, 선택적도입

  • 🔄 [개선] 3단계 모델 라우팅으로 에이전트 확장 및 최적화

  • Opus(심층 판단 2개) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)의 3단계 모델 라우팅 방식으로 에이전트를 8개에서 12개로 확장. 각 모델의 성능과 비용을 고려한 계층적 배치
  • 태그: 에이전트, 모델라우팅, 확장성, 비용최적화

  • 💡 [발견] 모델별 레이턴시 차이: GPT-5-mini(14.3초) vs Claude-Sonnet(5.5초)

  • 같은 작업에서 github-copilot/gpt-5-mini는 평균 14,330ms, cliproxy/claude-sonnet-4-6는 5,571ms의 레이턴시 차이 발생. 빠른 응답이 필요한 작업에는 Sonnet 계열이 더 효율적
  • 태그: 성능, 레이턴시, 모델비교

  • 📚 [교훈] 공식 문서 확인 필수: 초기 정보 오류 → 공식 OpenAI 문서로 정정

  • gpt-5.4-mini 출시 여부를 처음에 확인 불가로 판단했으나, 공식 OpenAI Models 문서 재확인으로 2026-03-19 기준 공개 확인. 향후 모델 정보는 공식 문서 우선 확인
  • 태그: 정보검증, 문서확인, 정정

  • 💡 [발견] Codex CLI는 -m/--model 플래그와 config.toml로 모델 변경 지원

  • 로컬 Codex 환경에서 모델 오버라이드 가능: CLI 플래그(-m/--model) 또는 config.toml의 model 키를 통해 동적 모델 변경 가능
  • 태그: CLI, 설정, 모델변경

2026-03-19

  • 🔧 [해결] 문제별 기능만 체리픽해서 도입
  • 전체 OMC 도입이 부적합하다고 판단될 때, 전체를 가져오지 않고 도메인에 맞는 핵심 3가지를 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 빠르게 적용하여 비용과 복잡도를 줄임.
  • 태그: 체리픽, 최소적합용량, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 단일 플랫폼 대신 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할에 따라 모델과 에이전트를 분리해 요청 유형별로 라우팅한다는 기준을 사용함.
  • 태그: 모델선택, 역할기반, 라우팅

  • 💡 [발견] 문서 확인 → 결정 정정의 중요성

  • 초기에 gpt-5.4 mini 공개 불가로 기록했다가 공식 문서 재확인 후 공개 표기 확인으로 정정함 — 즉, 빠른 결론보다 공식 문서/원천 검증을 통해 오류를 잡아내는 과정이 발견됨.
  • 태그: 검증, 문서근거, 정정

  • 🔄 [개선] 자동화 + 테스트 병행 워크플로우

  • recovery 리포트 자동화 스크립트 작성 → recovery_collector 유닛/통합 테스트 작성 순으로 자동화 작업과 테스트를 병행해 신뢰성을 높이는 방식으로 워크플로우 개선.
  • 태그: 자동화, 테스트, 신뢰성

  • 📚 [교훈] 통계·메트릭 지속 관찰의 가치

  • LLM 호출 수, 성공률, 레이턴시, 에러 수 등 지표를 세션별로 기록하여 문제 탐지(예: 특정 모델 호출 실패나 높은 레이턴시)를 빠르게 인지하고 대응하도록 함.
  • 태그: 모니터링, 메트릭, 운영지표

  • 🔧 [해결] 사용자 불만엔 사과 + 전체 맵 제공

  • 사용자가 특정 종목을 지적하며 불만을 표현할 때 즉시 사과하고(톤 완화), 관련 섹터 전체 맵(방산·에너지·금·사이버보안 등)과 대표 종목을 정리해 제공하여 불만을 해결하고 정보 제공을 병행함.
  • 태그: 고객응대, 정보정리, 토큰완화

  • ⚖️ [판단] 기능 도입 기준은 도메인 적합성

  • 새 기능이나 프레임워크(예: OMC)를 도입할지 말지 결정할 때 '코드 개발 전문성' 등 도메인 적합성을 우선 판단 근거로 삼아 불필요한 전체 도입을 피함.
  • 태그: 의사결정기준, 도메인적합성

  • 📚 [교훈] 초기 선언보다 근거 확보 우선

  • 초기 상태(예: gpt-5.4-mini 공개 여부)에 대해 결론을 내리기보다 공식 문서와 로컬 도구의 기능(-m/--model, config.toml) 같은 근거를 먼저 확인해야 한다는 점을 강조함.
  • 태그: 검증문화, 문서우선

  • 🔄 [개선] 에이전트 확장 시 역할명 세분화

  • 기존 8개에서 12개로 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 세분화해 책임과 기능을 분명히 함으로써 운영·디버깅 효율을 높임.
  • 태그: 조직설계, 역할세분화, 운영효율

2026-03-19

  • 🔧 [해결] 특정 기능만 체리픽하여 도입
  • 전체 OMC 도입 대신 도메인 적합성을 고려해 핵심 3가지를 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 구현으로 리스크와 작업량을 줄임
  • 태그: 범위결정, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)이라는 역할 기준으로 모델 라우팅을 결정해 각 모델의 강점을 살림
  • 태그: 모델선택, 역할기반

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 모델을 변경할 수 있어 로컬에서 모델 교체가 가능함
  • 태그: 툴기능, 운영환경

  • 🔄 [개선] 에이전트 확장으로 기능 분할

  • 기존 8개에서 12개로 에이전트를 늘려 역할을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)함으로써 책임 분리와 전문화 달성
  • 태그: 아키텍처, 운영효율

  • 📚 [교훈] 대규모 도입은 도메인 적합성 검토 필수

  • OMC 전체 도입 시 도메인 불일치(코드 개발 전문 vs OMC 목적) 문제가 있어 우선 체리픽으로 검증 후 확장하는 방식이 안전함
  • 태그: 거버넌스, 검증

  • 🔧 [해결] 복구 리포트 자동화와 테스트 도입

  • recovery 리포트 자동화 스크립트 작성 및 recovery_collector에 유닛/통합 테스트를 추가해 장애 대응을 자동화하고 신뢰성을 높임
  • 태그: 자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 모델 성능 비교 가능

  • 모델별 호출 수·성공률·레이턴시 통계를 수집해 운영 최적화(예: sonnet의 낮은 레이턴시 선호) 근거로 사용함
  • 태그: 관찰, 모니터링

  • 📚 [교훈] 초기 정보 오류는 빠르게 정정해야 함

  • gpt-5.4 mini 공개 여부에 대해 처음엔 확인 불가로 기록했다가 곧 공식 문서에서 공개 표기를 확인해 의사결정 로그를 정정함 — 정보 정정 프로세스 필요
  • 태그: 정보관리, 투명성

2026-03-19

  • 🔧 [해결] 복잡한 모델 기능은 체리픽해서 도입한다
  • 전체 OMC를 한꺼번에 도입하기보다 도메인 적합성을 판단해 핵심 가치가 큰 3가지를 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 점진 도입함으로써 개발 비용·위험을 줄였다.
  • 태그: 도입전략, 점진적적용, 리스크관리

  • ⚖️ [판단] 모델 라우팅 기준은 작업 특성에 따라 계층화한다

  • 심층 판단 업무는 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 작업 성격(심층 vs 분석 vs 빠른실행)에 따라 모델·에이전트를 분리해 라우팅 결정을 내렸다.
  • 태그: 모델선택, 작업분류, 라우팅정책

  • 💡 [발견] 프롬프트·호출 통계로 신뢰성과 성능 편차를 파악한다

  • 모델별 호출 수·성공률·평균 레이턴시를 집계해 어떤 모델이 응답 안정성·지연 측면에서 우수한지 확인했고, 이를 기반으로 모델 사용 정책을 조정했다(예: cliproxy/claude-sonnet-4-6의 낮은 레이턴시).
  • 태그: 관찰, 메트릭기반, 성능분석

  • 🔄 [개선] 에이전트 확장은 역할 단위로 세분화한다

  • 기존 에이전트(8개)를 업무 역할에 맞춰 12개로 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)하여 책임 범위를 명확히 하고 특정 작업에 특화된 처리 루틴을 만들었다.
  • 태그: 아키텍처, 역할분리, 스케일링

  • 🔧 [해결] 복구 리포트 및 테스트 자동화로 신뢰성 확보

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 사용해 장애 복구 절차를 자동화하고 검증함으로써 복구 신뢰성을 높였다.
  • 태그: 자동화, 테스트, 복구

  • 📚 [교훈] 초기 문서 확인 없이 단정하면 정정이 필요해진다

  • gpt-5.4 mini 공개 여부에 대해 초기에는 확답하지 못했으나 이후 OpenAI 문서 확인으로 정정했음 — 중요한 공개 정보는 즉시 공식 문서로 재확인해야 함.
  • 태그: 검증, 정보출처, 실수교훈

  • 💡 [발견] 시장 이벤트는 섹터별 수혜를 명확히 드러낸다

  • 대화에서 전쟁 관련 뉴스가 방산·에너지·금·사이버보안·해운·비료 등 섹터별로 즉각적·차별적인 수익률 상승으로 연결됨을 확인 — 이벤트→섹터 매핑을 통해 추천 범위를 체계화할 수 있다.
  • 태그: 도메인인사이트, 이벤트영향, 투자분석

2026-03-19

  • 🔧 [해결] 복잡한 모델 요구사항은 핵심만 체리픽해서 단계별로 도입한다
  • OMC 전면 도입 대신 도메인에 맞는 3가지 핵심 기능만 선택(cherry-pick)해 우선 구현 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 같은 고영향 항목부터 적용하여 비용과 리스크를 줄임
  • 태그: 모델운영, 우선순위, 리스크관리

  • ⚖️ [판단] 기능 전체 도입 vs 부분 체리픽은 도메인 적합성으로 결정한다

  • 새 시스템이 코드 개발 같은 특정 도메인과 맞지 않으면 전체 도입을 피하고, 도메인 적합성이 높은 소수 기능만 선택해 적용한다는 기준을 사용함
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델 라우팅은 처리 성격별로 분리하면 효율적이다

  • 세분화된 라우팅(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행)을 적용하니 각 모델의 강점에 맞춰 호출량·지연·비용을 최적화할 수 있음
  • 태그: 아키텍처, 모델선택, 성능최적화

  • 🔄 [개선] 에이전트 확장은 역할을 작게 쪼개어 추가한다

  • 기존 에이전트(8개)를 12개로 늘릴 때 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep처럼 책임을 좁혀 추가 — 각 에이전트가 단일 책임을 갖도록 해 유지보수와 확장성을 개선
  • 태그: 팀워크플로우, 마이크로서비스, 책임분리

  • 📚 [교훈] 공식 문서 확인은 반복 검증이 필요하다

  • gpt-5.4 mini 공개 여부 관련 초기 확인이 불완전해 정정이 있었음 — 외부 문서 확인 시 변경 가능성을 고려해 재검증 프로세스를 둬야 함
  • 태그: 실수교훈, 검증절차

  • 🔧 [해결] 회복(recovery) 리포트는 자동화·테스트로 먼저 준비한다

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행하여 장애 시 신속한 리포트 생성과 검증 가능한 복구 절차를 확보함
  • 태그: 운영자동화, 테스트

  • 💡 [발견] LLM 호출 통계로 모델별 활용·성능 편차를 빠르게 파악할 수 있다

  • 세션별 호출수, 성공률, 평균 레이턴시 집계를 통해 어떤 모델이 호출량이 높고 비용·지연 특성이 어떤지 관찰해 라우팅·모델선택 정책 수립에 활용함
  • 태그: 운영관측, 메트릭

  • ⚖️ [판단] 시장 추천/응답은 사용자 감정(불만) 먼저 수용하고 보완 정보 제공

  • 대화에서 사용자 불만(예: 특정 종목 소개 부족)을 먼저 사과·수용한 뒤, 관련 섹터 맵과 대표 종목·사유를 정리해 제공하는 방식이 신뢰 회복에 유리함
  • 태그: 사용자응대, 커뮤니케이션

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 필요한 부분만 도입
  • OMC 전체 도입 대신 도메인 적합성을 고려해 핵심 3가지를 선별(cherry-pick)해 구현함 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 방식으로 복잡도와 도메인 미스매치 리스크를 줄임.
  • 태그: 체리픽, 리스크절감, 모듈화

  • ⚖️ [판단] 모델 라우팅은 역할·지연·판단 깊이로 분리

  • 에이전트들을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 모델 라우팅해 각 모델의 강점과 레이턴시를 기준으로 작업을 배분함.
  • 태그: 모델선택, 라우팅, 성능기준

  • 💡 [발견] 프로덕션 호출 통계로 모델 효율·가용성 판단 가능

  • 세션별 LLM 호출 횟수·성공률·평균 레이턴시 데이터를 수집해 어떤 모델이 실제 워크로드에 적합한지(예: sonnet 낮은 레이턴시, gpt-5 미니 실패 사례)를 판단함.
  • 태그: 관찰, 모니터링, 메트릭

  • 🔄 [개선] 복구·리커버리 작업을 자동화 파이프라인으로 전환

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 도입해 수동 보고→자동 생성 워크플로우로 바꿈, 재현성·검증성을 높임.
  • 태그: 자동화, 테스트, 운영

  • 📚 [교훈] 문서 정보는 초기 판단을 바꿀 수 있으니 재확인 필수

  • 08:14에 gpt-5.4 mini 공개 미확인으로 판단했다가 08:16에 공식 문서로 정정함 — 중요한 외부 사실(릴리스/문서)은 즉시 1차 자료로 재검증해야 함.
  • 태그: 검증, 문서확인, 절차

  • 🔧 [해결] 역할별 에이전트 확장으로 작업 분리·병렬화

  • 에이전트 수를 8→12로 늘려 역할을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)함으로써 병렬 처리와 책임 분리가 용이해짐.
  • 태그: 스케일링, 책임분리, 병렬처리

  • 💡 [발견] 전쟁 관련 이벤트는 특정 섹터에 일관된 수혜를 줌

  • 대화 로그에서 전쟁 발생은 방산·에너지·금·사이버보안·해운·비료 등 섹터의 상승으로 연결됨 — 이벤트→섹터 영향 매핑이 유효함.
  • 태그: 도메인인사이트, 이벤트영향, 투자

  • ⚖️ [판단] 모델 선택 시 응답속도와 작업 성격을 함께 고려

  • 레이턴시가 중요한 빠른 실행 작업은 Haiku류, 심층 판단은 Opus류에 할당하는 등 응답속도(레이턴시)와 작업 성격(분석 vs 실행)을 기준으로 모델을 매핑함.
  • 태그: 모델매핑, 레이턴시, 작업유형

2026-03-19

  • 🔧 [해결] 복잡한 모델 작업은 핵심만 체리픽해 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라고 판단해, 필요한 기능 3가지만 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 구현으로 해결함.
  • 태그: 모델운영, 범위선정, 효율

  • 🔧 [해결] 모델 라우팅을 역할 기반으로 분리

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델·에이전트 역할을 나누어 라우팅함으로써 처리 효율과 응답 특성을 최적화함.
  • 태그: 아키텍처, 모델선택, 라우팅

  • ⚖️ [판단] 도입 여부는 도메인 적합성으로 결정

  • 새 방식(OMC)을 무조건 도입하지 않고 '코드 개발 전문성'과의 적합성을 기준으로 전체 vs 일부 도입을 판단함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출량 패턴 확인

  • 같은 세션 내에서 모델별 호출 수와 평균 레이턴시가 크게 다르며(예: cliproxy/claude-sonnet-4-6은 낮은 레이턴시, github-copilot/gpt-5-mini는 높은 레이턴시) 이를 기반으로 라우팅·역할 분배가 유효함을 발견함.
  • 태그: 관찰, 성능계측, 모델운영

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 책임을 분리해 병렬 처리와 전문성 향상을 도모함.
  • 태그: 워크플로우, 스케일링, 책임분리

  • 🔄 [개선] 자동화 스크립트와 테스트 병행 작성

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 함께 작성해 배포 전 검증을 표준화함.
  • 태그: 테스트, 자동화, CI

  • 📚 [교훈] 공식 문서 확인을 반복해 정정하라

  • 초기엔 gpt-5.4 mini 공개 여부를 확인 못했으나 곧 공식 문서에서 확인해 정정함 — 외부 공개정보는 복수 소스·재검증 절차 필요.
  • 태그: 정보검증, 절차

  • 📚 [교훈] 프롬프트·호출 통계로 운영 결정을 검증

  • 세션별 호출 수, 성공률, 프롬프트/응답 총량을 지속 모니터링해 변경의 효과(성공률·레이턴시)를 객관적으로 판단해야 함.
  • 태그: 모니터링, 운영지표, 검증

2026-03-19

  • 🔧 [해결] 체리픽으로 복잡한 도입 대신 핵심만 적용
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 중요한 3가지만 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 구현해 시간과 리소스를 절약함.
  • 태그: 체리픽, 우선순위, 리소스절약

  • 🔧 [해결] 모델 역할을 나눠 라우팅으로 처리

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)처럼 모델·에이전트 역할을 계층화하여 트래픽과 책임을 분리함으로써 처리 효율과 응답 성격을 맞춤.
  • 태그: 모델라우팅, 역할분리, 효율화

  • ⚖️ [판단] 도메인 적합성으로 기술 전체 도입 여부 결정

  • 새 기술이나 프레임워크를 전사적으로 도입할 때 도메인 적합성을 기준으로 전체 적용 대신 필요한 부분만 선별 적용하는 것을 기준으로 삼음.
  • 태그: 도메인적합성, 의사결정기준

  • 💡 [발견] 모델별 레이턴시·성공률 차이로 역할 배분 유효

  • 로그에서 모델별 호출 수·레이턴시가 다르게 나타나며(예: sonnet 평균 레이턴시 작음), 이를 기반으로 빠른 실행/심층분석 등 역할을 배분하면 성능 이득이 발생함.
  • 태그: 관찰, 성능측정, 역할배분

  • 🔄 [개선] 전통적 전면도입 → 선택적 체리픽 도입

  • 처음에는 전체 시스템 채택을 고민했으나, 체리픽(핵심 기능 선별) 방식으로 전환해 개발 부담과 불필요한 기능을 줄이고 배포·검증 속도를 높임.
  • 태그: 도입전략, 점진적배포

  • 📚 [교훈] 사전 확인 없이 전체 적용하면 비효율 발생

  • OMC를 그대로 전체 도입하려다 도메인 불일치로 불필요한 작업이 발생할 수 있었음 — 사전 도메인 적합성 검토를 반드시 선행할 것.
  • 태그: 교훈, 사전검토

  • 🔧 [해결] 자동화 스크립트+테스트로 리포트 신뢰성 확보

  • recovery 리포트 자동화 스크립트 작성과 해당 유닛/통합 테스트를 병행해 리포트의 일관성·재현성을 확보하려는 접근을 적용함.
  • 태그: 자동화, 테스트, 신뢰성

  • 💡 [발견] 문서·CLI 확인으로 모델 지원 여부 바로잡음

  • 초기 조사에서 공개 여부 불확실이었으나 공식 문서와 Codex CLI 옵션(-m/--model, config.toml) 확인으로 모델 변경 가능성과 공개 상태를 명확히 정정함.
  • 태그: 문서검증, 정보정정, 도구옵션

2026-03-19

  • 🔧 [해결] 특정 기능은 전체 OMC 도입 대신 체리픽으로 적용한다
  • OMC(큰 프레임워크)를 전체 도입이 적절하지 않을 때, 도메인에 맞는 핵심 기능 3가지를 선별하여(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 부분적으로 구현해 효과를 얻음
  • 태그: 모듈화, 리스크절감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 작업 성격에 따라 계층화한다

  • 심층 판단/분석·디버깅/빠른 실행 같은 작업 특성에 따라 Opus/Sonnet/Haiku처럼 모델 또는 에이전트를 계층화해 라우팅하면 성능과 비용을 균형 있게 관리할 수 있음
  • 태그: 모델선택, 아키텍처, 성능비용

  • 💡 [발견] LLM 호출 통계로 안정성과 비용-성능 지표를 빠르게 파악할 수 있다

  • 총 호출, 성공률, 프롬프트·응답 총량, 모델별 호출·평균 레이턴시를 모니터링하면 어떤 모델이 비용 대비 효율적인지, 실패/지연 패턴이 어디서 발생하는지 즉시 파악 가능
  • 태그: 모니터링, 운영지표

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 진행한다

  • 기존 에이전트 수를 늘릴 때 단순 증설이 아니라 역할(예: analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 세분화해 책임과 기능을 명확히 배분하면 운영·디버깅이 쉬워짐
  • 태그: 운영, 거버넌스

  • 🔧 [해결] 모델 공개 여부 혼선은 공식 문서와 로컬 확인으로 교차검증한다

  • 공식 문서에서 공개 여부를 확인한 뒤, 로컬 CLI(Codex의 -m/--model, config.toml)로 모델 오버라이드 지원 여부를 검증하여 혼선(08:15 정정)을 줄임
  • 태그: 검증, 정보정합성

  • 📚 [교훈] 일시적 정보로 결론 내리면 정정 비용 발생

  • 초기 상태(08:15)에서 gpt-5.4-mini 공개 불가로 판단했다가 곧바로 공식 문서에서 공개 표기 확인(08:16) → 정보를 바로 교차검증하지 않으면 의사결정 로그 수정과 추적 비용이 발생함
  • 태그: 교훈, 검증절차

  • 💡 [발견] 전시·지정학적 사건이 섹터별 주가·수요에 빠르게 반영된다

  • 전쟁 관련 뉴스(무기 증산 요청, 가스전 피격 등)는 방산·에너지·금·사이버보안·해운·비료 등 섹터 수익률·수요에 즉각적 영향 → 투자 추천·분석시 이벤트-섹터 맵을 우선 확인해야 함
  • 태그: 도메인지식, 투자분석

  • 🔧 [해결] 전문 질문에 대한 답변은 섹터 맵 + 대표 종목 표로 정리한다

  • 사용자 불만(예: 특정 종목 미소개)에 대응할 때, 섹터별 수익률·대표종목·핵심 논거를 표 형식으로 정리하면 빠르고 설득력 있는 응답이 가능함
  • 태그: 커뮤니케이션, 보고서형식

2026-03-19

  • 🔧 [해결] 특정 기능만 체리픽해서 도입
  • 전체 OMC 도입은 불필요하다고 판단될 때, 도메인 적합성에 따라 핵심적 3가지를 선별해(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 부분적으로 구현하여 비용·복잡도 감소와 빠른 효과 확보
  • 태그: 체리픽, 비용절감, 점진적도입

  • 🔧 [해결] 모델 역할별 라우팅으로 처리 분리

  • 작업 특성에 따라 모델을 역할군으로 나눔(심층 판단→Opus, 분석·디버깅→Sonnet, 빠른 실행→Haiku)으로 라우팅하면 각 모델 강점을 살려 처리 효율과 응답 신뢰도 개선
  • 태그: 모델라우팅, 역할분리, 성능최적화

  • 💡 [발견] 모델별 호출·지연의 일관된 차이 관찰

  • 로그에서 cliproxy/claude-sonnet-4-6는 호출 수는 높지만 평균 레이턴시가 낮고, github-copilot/gpt-5-mini는 레이턴시가 상대적으로 높게 나타나 모델 선택 시 응답속도와 호출량을 함께 고려해야 함
  • 태그: 성능관찰, 모델선택

  • ⚖️ [판단] 공식 문서 확인으로 판단 정정

  • 초기에는 gpt-5.4 mini 공개 여부를 확인하지 못했으나 공식 Models 문서 재확인으로 공개 표기 여부를 정정함 — 외부 정보 기반 의사결정은 항상 공식 출처 재확인을 기준으로 판단
  • 태그: 정보검증, 공식문서

  • 🔄 [개선] 자동화 파이프라인에 복구·테스트 추가

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 도입하여 장애 감지→수집→검증 흐름을 코드로 고정, 수동 작업 의존도를 줄이고 재현성 확보
  • 태그: 자동화, 테스트, 복구

  • 📚 [교훈] 광범위 도입 전에 도메인 적합성 검토 필수

  • OMC 전체 도입을 바로 수행하려다 도메인 불일치로 부분 도입으로 전환 — 신규 프레임워크나 플랫폼은 전체 도입 전에 팀 역량·도메인 적합성 먼저 검토해야 함
  • 태그: 도메인검증, 리스크회피

  • 💡 [발견] 프롬프트·응답 비율에서 비용·효율 인사이트

  • 프롬프트 총량과 응답 총량, 호출 수·성공률 데이터를 함께 보면 모델별 비용·품질 트레이드오프(프롬프트 길이 대비 응답 길이, 오류 수)를 판단해 최적 모델 조합 설계 가능
  • 태그: 메트릭분석, 비용효율

  • 🔧 [해결] 섹터 맵으로 사용자의 불만 해소

  • 사용자 불만(특정 종목 미공지)에 대해 섹터별 수익률·대표 종목·핵심 이유를 정리한 '섹터 맵'을 제공하여 빠르게 맥락을 주고 추가 요청 유도
  • 태그: 사용자응대, 정보요약, 금융분석

2026-03-19

  • ⚖️ [판단] 기술/도메인 적합성으로 도입 범위 결정
  • 새 도구(OMC) 전체 도입 대신 '도메인이 맞지 않으면 체리픽 3가지만 적용'으로 범위를 제한함. 즉, 도메인 적합성(코드 개발 전문성 여부)을 기준으로 전면 도입 여부를 판단한다.
  • 태그: 의사결정, 도입정책, 범위관리

  • 🔧 [해결] 모델 역할 분리로 작업 효율화

  • 작업 특성에 따라 모델/에이전트를 분리(예: Opus: 심층판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)하여 각 모델이 적합한 작업만 처리하도록 라우팅함으로써 응답 레이턴시와 정확성 균형을 맞춤.
  • 태그: 모델라우팅, 효율화, 운영

  • 🔧 [해결] 체리픽 + 패턴 추출로 기능만 가져오기

  • 전체 프레임워크를 통째로 도입하지 않고 유용한 구성요소(예: learner 패턴, preemptive-compaction)만 골라 구현해 빠르게 가치 제공.
  • 태그: 부분도입, 패턴재사용, 빠른가치

  • 💡 [발견] 모델별 호출 특성 관찰 — 경량 모델은 저지연

  • 로그에서 cliproxy/claude-sonnet-4-6이 호출량이 많고 평균 레이턴시가 짧은 반면, github-copilot/gpt-5-mini는 레이턴시가 길었음 → 호출량 많은 배치 작업에는 저지연 모델을 선호해야 함.
  • 태그: 모니터링, 성능특성, 모델선택

  • 🔄 [개선] 에이전트 수평 확장으로 기능 분리

  • 기존 8개에서 12개로 에이전트 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)하여 역할을 더 세분화함으로써 각 에이전트 책임을 명확히 하고 병렬 처리 효과를 높임.
  • 태그: 아키텍처, 병렬화, 운영개선

  • 🔧 [해결] 자동화 스크립트 + 테스트로 복구 신뢰도 확보

  • recovery 리포트 자동화 스크립트 작성 및 recovery_collector 유닛/통합 테스트 추가로 장애 복구 절차를 코드화하고 검증 가능하게 만듦.
  • 태그: 자동화, 테스트, 복구

  • 📚 [교훈] 공식 문서 확인은 반복 검증이 필요함

  • 초기에 gpt-5.4 mini 공개 여부를 잘못 판단했다가 정정함 → 외부 문서(공식 Models 문서) 확인 결과가 바뀌거나 해석이 달라질 수 있으니 중요한 결정 전에는 직접 소스 재확인 및 기록 보관 필요.
  • 태그: 검증, 절차, 실수방지

  • 💡 [발견] 프롬프트·응답 볼륨과 성공률 추적으로 운영 가시성 확보

  • 세션별 총 호출, 프롬프트 총량, 응답 총량, 성공률, 에러 수 같은 지표를 주기적으로 수집해 모델 성능·비용·안정성 의사결정에 활용함.
  • 태그: 모니터링, 메트릭, 운영지표

  • 🔧 [해결] 도메인 맵(예: 전쟁 수혜주)으로 사용자 불만 대응

  • 사용자 불만('왜 Vg 소개 안 해주냐')에 대해 섹터·대표종목·핵심 포인트로 정리한 맵을 제공해 빠르게 맥락을 전달하고 누락 대응함 — 도메인 요약 템플릿 사용.
  • 태그: 고객응대, 콘텐츠템플릿, 도메인정리

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심만 도입
  • OMC 전체 도입 대신 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택 적용하여 개발 효율과 적합성 유지
  • 태그: 의사결정, 효율성

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 결정

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku 처럼 모델을 역할(책임) 기준으로 나눠 라우팅하면 성능·응답시간·비용 균형을 맞출 수 있음
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 모델 변경이 가능해 배포 환경에서 모델 전환이 용이함
  • 태그: 툴링, 운영

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 기존 8개에서 12개로 에이전트를 늘려 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 같은 전담 역할을 만들면 책임 분산과 병렬 처리 능력이 향상됨
  • 태그: 워크플로우, 스케일링

  • 🔧 [해결] preemptive-compaction으로 리소스 최적화

  • preemptive-compaction 훅을 도입해 모델/세션 프롬프트 총량을 미리 정리·압축하면 호출 비용과 레이턴시를 줄일 수 있음
  • 태그: 성능, 비용절감

  • 💡 [발견] LLM 호출 통계로 모델별 성능 가시화

  • 모델별 호출수·성공률·평균 레이턴시를 정기적으로 기록하면 병목 모델·비용효율이 떨어지는 모델을 식별해 라우팅 정책을 개선할 수 있음
  • 태그: 모니터링, 계량화

  • 📚 [교훈] 공식 문서 확인은 반복 검증 필요

  • 08:15에 공개 확인 불가로 기록했다가 08:16에 정정하여 문서에서 공개 표기 확인 — 문서 확인 시 단회 확인이 아닌 즉시 재검증·소스 기록이 필요함
  • 태그: 검증, 절차

  • 📚 [교훈] 프롬프트·호출량 추적은 에러 대응에 필수

  • 세션 로그에서 프롬프트 총량·응답 총량·에러 수를 누적 관리하자고 명시 — 대규모 호출 환경에서는 통계 기반 알림과 자동화된 회복(예: recovery 리포트, 테스트)이 필요함
  • 태그: 운영, 신뢰성

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 범위 축소
  • OMC 전체 도입이 적절치 않을 때 전체 적용 대신 도메인에 맞는 3가지 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선정해 구현함으로써 비용·복잡도 절감 및 빠른 가치 확보.
  • 태그: 우선순위, 범위관리, 빠른가치

  • ⚖️ [판단] 모델 라우팅은 역할별 역량에 따라 분리

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 모델을 역할(심층 판단/분석/실행) 기준으로 라우팅해 모델별 강점을 살림.
  • 태그: 모델선택, 아키텍처, 역할기반

  • 💡 [발견] 로컬 툴은 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 모델 변경을 지원한다는 사실을 확인해, 공식 공개 여부와 무관하게 로컬 구성으로 대체 가능함을 발견.
  • 태그: 툴링, 유연성, 대응전략

  • 🔄 [개선] 사전압축(preemptive-compaction) 훅 도입

  • preemptive-compaction 스크립트를 훅으로 추가해 세션/에이전시 상태를 사전에 정리함으로써 이후 처리 성능과 안정성을 개선함.
  • 태그: 성능, 운영자동화, 유지보수

  • 📚 [교훈] 공식 문서 확인 후 발표해야 함

  • 초기에 gpt-5.4-mini 공개 여부를 잘못 판단했다가 정정함. 주요 발표·확인사항은 공식 소스(공식 Models 문서)를 먼저 확인한 뒤 공유해야 혼선 방지 가능.
  • 태그: 검증, 커뮤니케이션, 신뢰성

  • 🔧 [해결] 에이전트 확장으로 역할 분담 강화

  • 기존 8개 에이전트를 12개로 늘려(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 추가) 책임과 전문성을 분리해 작업 병렬화와 전문성 향상을 달성함.
  • 태그: 팀구성, 병렬처리, 전문화

  • 🔧 [해결] 사용자 불만엔 사과 후 종합 맵 제공

  • 사용자 불만(특정 종목 미추천)에 대해 즉시 사과하고 관련 섹터·대표 종목·이유를 정리한 전면 맵을 제공해 신뢰 회복 및 정보 제공을 동시에 수행함.
  • 태그: 고객응대, 정보제공, 신뢰회복

2026-03-19

  • 🔧 [해결] 대형 도입 대신 체리픽으로 리스크 줄이기
  • OMC 전체 도입은 도메인 불일치로 불필요하다고 판단하고, 핵심 3가지만 선별(cherry-pick)해 구현함으로써 작업 범위와 위험을 줄였다. 대규모 변경 대신 작은 기능 집합을 우선 적용하는 방식.
  • 태그: 리스크관리, 체리픽, 범위축소

  • ⚖️ [판단] 모델 선택은 역할 기반 라우팅으로 결정

  • 모델을 역할·능력에 따라 라우팅(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행)해 각 모델의 강점을 살리는 판단 기준을 적용했다. 작업 성격에 따라 모델을 매핑하는 규칙화.
  • 태그: 모델라우팅, 운영정책

  • 💡 [발견] 문서 근거 확인이 의사결정 신뢰도를 높임

  • gpt-5.4-mini 공개 여부에 대해 초기에는 확인 불가로 기록했다가 공식 문서 재확인으로 정정함. 1차 판단 후 공식 출처 검증이 필요함을 확인.
  • 태그: 문서검증, 출처확인

  • 🔄 [개선] 프롬프트·호출 통계 모니터링으로 안정성 확보

  • 세션별 총 호출·성공률·프롬프트·응답량·에러 수를 지속 기록해 모델별 성능(호출수/성공률/레이턴시)을 파악, 안정성 추적·문제 감지에 활용하도록 워크플로우에 통계 수집을 추가함.
  • 태그: 모니터링, 운영계측

  • 🔧 [해결] 프롬프트·토큰 문제 대비한 선제적 컴팩션 도입

  • preemptive-compaction 훅을 만들어 프롬프트 크기·맥락을 사전 정리·압축해 모델 입력을 관리함으로써 토큰·응답 일관성 문제를 완화했다.
  • 태그: 토큰관리, 프롬프트최적화

  • 🔄 [개선] 유닛/통합 테스트를 조기 적용해 회복 자동화 신뢰성 향상

  • recovery 리포트 자동화와 recovery_collector 유닛·통합 테스트를 작성해 복구 파이프라인의 신뢰성을 워크플로우 초기에 검증하도록 개선함.
  • 태그: 테스트, 자동화

  • 📚 [교훈] 초기 확인 없이 결론 내리지 않기

  • 초기에 gpt-5.4-mini 공개 여부를 잘못 표기했다가 공식 문서 확인 후 정정함. 핵심 사실은 공식 출처로 즉시 검증하는 절차를 확립해야 함.
  • 태그: 검증절차, 실수교훈

  • ⚖️ [판단] 에이전트 수평 확장은 역할 분화가 우선

  • 에이전트를 8→12로 확장하면서 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등 역할을 분리해 기능별 전문성으로 확장하는 것을 우선 판단함. 수 늘리기 전에 역할·책임을 명확히 함.
  • 태그: 조직구조, 역할분화

2026-03-19

  • ⚖️ [판단] OMC 전체 도입 대신 필요한 3가지만 선택적 도입
  • OMC(Orchestrated Model Chaining) 전체 도입이 아니라 코드 개발 전문 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 체리픽하여 적용
  • 태그: 의사결정, 아키텍처, 도메인적합성

  • 🔄 [개선] 3단계 모델 라우팅으로 비용-성능 최적화

  • Opus(심층 판단 2개) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)로 모델별 역할 분담하여 에이전트 8개→12개로 확장하면서 비용 효율성 유지
  • 태그: 최적화, 모델라우팅, 확장성

  • 💡 [발견] 공식 문서 확인 필요성 — 정보 검증 프로세스 중요

  • gpt-5.4-mini 공개 여부를 처음엔 확인 불가로 판단했다가 OpenAI 공식 Models 문서 재확인으로 공개 확인. 로컬 Codex CLI는 -m/--model 및 config.toml로 모델 변경 지원
  • 태그: 검증, 문서확인, 정보정확성

  • 📚 [교훈] 초기 정보 부정 후 재검증으로 정정

  • 08:15에 gpt-5.4-mini 공개 확인 불가 판단 → 08:16에 공식 문서 재확인으로 공개 확인 정정. 첫 응답을 그대로 신뢰하지 말고 재검증 필요
  • 태그: 정정, 재검증, 신뢰성

2026-03-19

  • ⚖️ [판단] OMC 전체 도입 대신 필요한 3가지만 체리픽
  • OMC(Orchestrated Model Composition) 전체 도입이 아닌 코드 개발 전문 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택적 적용
  • 태그: 의사결정, 아키텍처, 도메인맞춤

  • 🔄 [개선] 3단계 모델 라우팅으로 비용-성능 최적화

  • Opus(심층 판단 2개) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)로 에이전트 12개 확장. 작업 복잡도에 따라 모델 선택하여 비용 절감과 응답 속도 개선
  • 태그: 최적화, 모델라우팅, 비용효율

  • 💡 [발견] 공식 문서 확인 필요성 — 로컬 정보와 공식 정보 불일치

  • gpt-5.4-mini 출시 여부에 대해 초기 확인 불가 → 정정: 2026-03-19 기준 OpenAI 공식 Models 문서에 공개 표기 확인. 로컬 정보만 신뢰하지 말 것
  • 태그: 정보검증, 문서확인, 교훈

  • 💡 [발견] Codex CLI는 모델 오버라이드 지원

  • 로컬 Codex는 -m/--model 플래그 및 config.toml의 model 키를 통해 모델 변경 가능. 유연한 모델 전환 가능
  • 태그: CLI, 설정, 모델관리

  • 🔧 [해결] recovery 리포트 자동화 스크립트로 수동 작업 제거

  • recovery_collector 유닛/통합 테스트 작성으로 자동화된 리포트 생성 파이프라인 구축. 수동 리포팅 작업 제거
  • 태그: 자동화, 테스트, 워크플로우

2026-03-19

  • ⚖️ [판단] OMC 전체 도입 대신 필요한 3가지만 선택적 적용
  • OMC(Orchestrated Multi-Model Collaboration) 전체 도입이 아니라 코드 개발 전문 도메인에 맞는 3가지만 체리픽: 모델별 에이전트 분리 + learner 패턴 추출 + preemptive-compaction
  • 태그: 의사결정, 아키텍처, 도메인매칭

  • 🔄 [개선] 3단계 모델 라우팅으로 비용-성능 최적화

  • Opus(심층 판단 2개) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)로 에이전트 12개 확장. 각 모델의 강점에 맞춰 작업 할당하여 성능과 비용 균형
  • 태그: 최적화, 라우팅, 모델선택

  • 💡 [발견] 에이전트 확장 시 모델별 성능 차이 활용

  • 8개→12개 에이전트 확장 시 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가. 각 에이전트를 적절한 모델에 할당하면 전체 시스템 효율성 증대
  • 태그: 에이전트, 확장성, 모델성능

  • 💡 [발견] 공식 문서 확인 필수 - 모델 가용성 정보는 변동성 높음

  • gpt-5.4-mini 공개 여부에 대해 초기 확인 불가 → 정정 → 최종 확인. 공식 OpenAI Models 문서 기준으로 2026-03-19 시점에 gpt-5.4-mini 공개 확인됨
  • 태그: 검증, 문서, 정보신뢰성

  • 💡 [발견] 로컬 Codex CLI는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 플래그 및 config.toml의 model 키를 통해 모델 변경 가능. 유연한 모델 선택 가능
  • 태그: CLI, 설정, 모델변경

2026-03-19

  • ⚖️ [판단] OMC 전체 도입 대신 필요한 3가지만 선택적 적용
  • OMC(Orchestrated Model Collaboration) 전체 도입이 아니라 코드 개발 전문 도메인에 맞는 3가지만 체리픽: 모델별 에이전트 분리 + learner 패턴 추출 + preemptive-compaction
  • 태그: 아키텍처, 의사결정, OMC, 도메인맞춤

  • 🔄 [개선] 3단계 모델 라우팅으로 에이전트 확장 및 성능 최적화

  • Opus(심층 판단 2개) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)의 3단계 모델 라우팅 도입으로 에이전트 8개→12개 확장. 각 모델의 강점을 작업 복잡도에 맞춰 배치
  • 태그: 모델라우팅, 에이전트확장, 성능최적화, 비용효율

  • 💡 [발견] gpt-5.4-mini는 2026-03-19 기준 OpenAI 공식 문서에 공개됨

  • 초기 확인 불가 → 정정: OpenAI 공식 Models 문서에 gpt-5.4-mini 공개 표기 확인. Codex CLI는 -m/--model 및 config.toml model 키로 모델 변경 지원
  • 태그: 모델정보, OpenAI, Codex, 설정

  • 🔧 [해결] 로컬 Codex에서 모델 변경 불가 문제 → CLI 옵션과 설정파일로 해결

  • Codex 5.4 mini 모델 변경 가능 여부 확인 결과, -m/--model 커맨드라인 옵션 또는 config.toml의 model 키를 통해 모델 오버라이드 지원
  • 태그: Codex, CLI, 설정, 모델변경

  • 💡 [발견] 다중 모델 호출 시 일부 모델의 높은 실패율 패턴

  • 366건 호출 중 gpt-5-mini(0%), qwen2.5:7b(0%), openai-codex/gpt-5.4(0%) 등 특정 모델들이 100% 실패. github-copilot/gpt-5-mini와 cliproxy/claude-sonnet-4-6는 100% 성공률 유지
  • 태그: 모델신뢰성, 에러분석, 다중모델

2026-03-19

  • ⚖️ [판단] 도메인 적합성 기준으로 기술 도입 선택
  • OMC(Orchestrated Model Calling) 전체 도입 불필요 판단 근거: 코드 개발 전문 도메인이므로 3가지 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 체리픽 적용
  • 태그: 아키텍처, 의사결정, 도메인분석

  • 🔄 [개선] 3단계 모델 라우팅으로 비용-성능 최적화

  • Opus(심층 판단 2개) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)로 에이전트 12개 구성. 작업 복잡도에 따라 모델 할당하여 비용 효율성과 응답 속도 동시 개선
  • 태그: 모델라우팅, 비용최적화, 성능

  • 💡 [발견] 공식 문서 확인의 중요성 - 정보 업데이트 필요

  • 초기 OpenAI 공식 문서에서 gpt-5.4-mini 미확인 → 재확인 결과 2026-03-19 기준 공개 확인. 빠르게 변화하는 LLM 생태계에서 문서 재검증 필수
  • 태그: 정보검증, 문서관리, 교훈

  • 🔧 [해결] 로컬 CLI 모델 오버라이드로 유연성 확보

  • Codex CLI에서 -m/--model 플래그 및 config.toml model 키를 통해 모델 변경 지원. 공식 API 제약 시 로컬 설정으로 우회 가능
  • 태그: CLI, 설정관리, 유연성

  • 💡 [발견] 높은 호출 성공률 유지 - 시스템 안정성 확보

  • 총 463건 호출 중 99% 성공률 달성(에러 6건). claude-sonnet-4-6 329건 100% 성공으로 안정적 기반 제공
  • 태그: 안정성, 모니터링, 품질

2026-03-19

  • ⚖️ [판단] OMC 전체 도입 대신 필요한 부분만 선택적 적용
  • OMC(Orchestrated Model Composition) 전체 도입이 아니라 코드 개발 전문 도메인에 맞는 3가지만 체리픽: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction
  • 태그: 아키텍처, 의사결정, 선택적도입

  • 🔄 [개선] 3단계 모델 라우팅으로 비용·성능 최적화

  • Opus(심층 판단 2개) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)로 계층화하여 작업 복잡도에 따라 모델 선택. OMC 방식 적용으로 에이전트 8개→12개 확장
  • 태그: 모델라우팅, 비용최적화, 성능

  • 💡 [발견] Codex CLI는 -m/--model 및 config.toml로 모델 변경 지원

  • 로컬 Codex 환경에서 CLI 플래그(-m/--model) 또는 config.toml의 model 키를 통해 런타임 모델 오버라이드 가능
  • 태그: Codex, CLI, 설정

  • 📚 [교훈] 공식 문서 확인 후 정정: gpt-5.4-mini는 2026-03-19 기준 공개됨

  • 초기에 gpt-5.4-mini 공개 불가로 판단했으나, OpenAI 공식 Models 문서 재확인 결과 공개 확인. 문서 변경 사항을 주기적으로 재검증 필요
  • 태그: 문서확인, 모델정보, 정정

  • 🔧 [해결] recovery 리포트 자동화 스크립트로 운영 효율화

  • recovery_collector 유닛/통합 테스트 작성 및 자동화 스크립트 구현으로 recovery 리포트 생성 프로세스 자동화
  • 태그: 자동화, 스크립트, 운영효율

2026-03-19

  • ⚖️ [판단] OMC 전체 도입 vs 선택적 체리픽 — 도메인 적합성 기준으로 판단
  • OMC(Orchestrated Model Composition) 전체 도입 불필요. 코드 개발 전문 도메인에는 3가지 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 체리픽하여 적용
  • 태그: 아키텍처, 의사결정, 도메인매칭

  • 🔄 [개선] 단일 모델 → 3단계 모델 라우팅으로 성능·비용 최적화

  • Opus(심층 판단 2개 에이전트) / Sonnet(분석·디버깅 4개) / Haiku(빠른 실행 6개)로 계층화. 작업 복잡도에 따라 모델 선택하여 레이턴시와 비용 효율성 개선
  • 태그: 모델라우팅, 성능최적화, 비용절감

  • 🔧 [해결] 에이전트 확장 시 모델별 분리로 관리 복잡도 감소

  • 8개→12개 에이전트 확장 시 모델별로 분리(Opus/Sonnet/Haiku)하여 각 모델의 강점에 맞는 에이전트 할당. vault-inspector-deep, quick-search, pipeline-debugger-deep, cron-doctor-deep 등 4개 신규 에이전트 추가
  • 태그: 에이전트관리, 확장성, 모델최적화

  • 💡 [발견] 공식 문서 확인 필수 — 모델 출시 정보는 로컬 정보 신뢰 불가

  • gpt-5.4-mini 출시 여부 확인 시 초기 공식 문서에 미표기 → 재확인 결과 2026-03-19 기준 OpenAI 공식 Models 문서에 공개 확인. 로컬 정보나 추측보다 공식 문서 재확인 필수
  • 태그: 정보검증, 문서확인, 신뢰성

  • 💡 [발견] Codex CLI는 -m/--model 플래그와 config.toml로 모델 변경 지원

  • 로컬 Codex 도구에서 모델 오버라이드 가능. CLI 플래그(-m/--model) 또는 설정 파일(config.toml의 model 키)로 모델 변경 가능하여 유연한 모델 선택 가능
  • 태그: 도구활용, 설정, 모델변경

  • 📚 [교훈] 초기 모델 선택 오류 → 공식 문서 기반 재검증으로 정정

  • gpt-5-mini, qwen2.5:7b, openai-codex/gpt-5.4 등 일부 모델 호출 시 0% 성공률 기록. 공식 문서 재확인 후 실제 사용 가능한 모델(github-copilot/gpt-5-mini, cliproxy/claude-sonnet-4-6)로 정정. 앞으로 모델 선택 전 공식 문서 우선 확인
  • 태그: 오류수정, 모델검증, 문서기반

2026-03-19

  • 🔧 [해결] 체리픽으로 복잡한 프레임워크 도입 비용 줄이기
  • 전체 OMC 도입 대신 도메인 적합성 검토 후 핵심 3가지를 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 구현 비용과 리스크를 낮춤.
  • 태그: 설계, 리스크관리, 단계적도입

  • 🔧 [해결] 모델별 라우팅으로 책임 분담

  • 작업 특성에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 라우팅해 각 모델의 강점을 살리고 전체 성능·응답시간을 최적화함.
  • 태그: 아키텍처, 모델선택, 성능

  • ⚖️ [판단] 전체 도입 vs 체리픽 판단 기준: 도메인 적합성

  • 새 프레임워크가 조직의 주된 업무(코드 개발)에 적합한지 우선 평가하고, 적합하지 않으면 전체 도입 대신 핵심 기능만 선택하는 기준을 사용함.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 로컬 CLI·config로 모델 오버라이드 가능

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인하여 로컬 환경에서 유연한 모델 전환이 가능함을 발견.
  • 태그: 도구, 운영

  • 🔄 [개선] 복구·리포트 자동화로 테스트·배포 반복 비용 감소

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성하여 장애 수집→보고→검증 흐름을 자동화하고 반복 작업 비용을 줄임.
  • 태그: 자동화, 테스트, 운영

  • 📚 [교훈] 프롬프트·모델 통계 모니터링의 중요성

  • 대량 호출 환경에서 모델별 호출수·성공률·레이턴시를 정기적으로 집계해야 오작동(에러 수)과 성능병목을 빠르게 식별·대응할 수 있음.
  • 태그: 모니터링, 운영지표

  • 📚 [교훈] 초기 판단 정정 절차 필요

  • 08:15에 공개 확인 불가로 기록했다가 08:16에 정정해 공개 표기를 확인한 것처럼, 외부 정보 확인 시 최초 결론을 바로 고정하지 않고 빠른 정정·로그 남기기 절차를 마련해야 함.
  • 태그: 절차, 신뢰성, 문서화

  • 💡 [발견] 전쟁·지정학 이벤트는 특정 섹터에 빠르게 영향

  • 대화에서 전쟁 관련 사건이 방산·에너지·금·사이버보안·해운·비료 같은 섹터에 즉각적·다층적 영향을 주는 패턴을 확인. 이벤트→섹터별 영향 맵을 빠르게 업데이트하면 투자 추천 정확도가 올라감.
  • 태그: 도메인지식, 인시던트영향

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 범위 축소
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체 적용을 강행하지 않고, 코드 개발에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용한다. 불필요한 범위 확장을 방지하는 방식.
  • 태그: 범위관리, 우선순위, 리스크회피

  • ⚖️ [판단] 모델 라우팅은 역할 기준으로 분리

  • 심층 판단/분석·디버깅/빠른 실행 같은 역할 기준으로 Opus/Sonnet/Haiku 식으로 모델 라우팅을 결정한다. 작업 성격(정밀도 vs 속도)을 기준으로 모델을 배치한다.
  • 태그: 모델선택, 역할기반, 성능트레이드오프

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI는 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함 — 로컬 환경에서 모델 전환이 가능하다.
  • 태그: 도구능력, 환경설정

  • 🔧 [해결] 빠른 확인 → 정정 사이클 적용

  • 초기 조사에서 '공개 여부 확인 불가'로 기록했으나 추가 확인으로 '공식 문서에 공개 표기 확인'으로 정정했다. 불확실한 사실은 바로 정정하는 반복 사이클을 적용한다.
  • 태그: 검증, 정정, 작업프로세스

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 8개 에이전트를 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임을 분리하고 전문화했다 — 복합 작업을 에이전트별로 분담하는 워크플로우 개선.
  • 태그: 조직화, 전문화, 스케일링

  • 💡 [발견] LLM 호출 통계로 성능/비용 판단 가능

  • 모델별 호출 수·성공률·평균 레이턴시를 수집해 어떤 모델을 더 많이 쓰고 있는지, 실패 패턴이나 비용(프롬프트·응답량)을 판단할 수 있음.
  • 태그: 관찰, 모니터링, 의사결정데이터

  • 📚 [교훈] 부분 도입이 전체 도입보다 안전하다

  • 처음부터 모든 기능을 도입하려다 문제(도메인 불일치)가 발생 → 필요 기능만 체리픽해 적용하니 리스크가 줄었다. 앞으로는 전체 적용 전에 핵심 항목을 선별해 시범 적용할 것.
  • 태그: 리스크관리, 점진적도입, 교훈

  • 🔧 [해결] preemptive-compaction으로 예비 정리 자동화

  • 프리엠티브 컴팩션 훅을 추가해 사전 정리(컴팩션)를 자동화함으로써 세션/에이전트 동작 전후의 상태를 깨끗하게 유지하는 해결책을 도입했다.
  • 태그: 자동화, 유지보수, 안정성

  • ⚖️ [판단] 응답 실패는 모델별로 구분해 원인 진단

  • 로그에서 몇몇 모델(gpt-5-mini, qwen2.5, openai-codex/gpt-5.4)이 호출 실패를 보였으므로 모델별 실패율/레이턴시를 기준으로 원인(인증·버전·호환성)을 판단해 대체 모델 또는 설정 변경을 결정한다.
  • 태그: 진단기준, 장애대응

  • 📚 [교훈] 대화형 응답은 사용자 불만을 빠르게 정정·보완해야 함

  • 사용자 질문(Vg 관련)에서 누락이 발생했을 때 사과와 함께 누락된 섹터·종목을 즉시 보완해 신뢰를 회복했다. 사용자 피드백 즉시 보완의 중요성.
  • 태그: 고객응대, 피드백루프

2026-03-19

  • ⚖️ [판단] 도메인 불일치 시 전체 도입 대신 체리픽
  • OMC 전체 도입은 도메인이 맞지 않으면 불필요하다고 판단하고, 핵심 유용 기능 3가지만 선별(cherry-pick)해 적용함 — 즉 전체 수용보다 '도메인 적합성'을 기준으로 선택적으로 도입한다.
  • 태그: 거버넌스, 적용기준

  • 🔧 [해결] 모델 역할에 따른 3단계 라우팅

  • 작업 성격에 따라 모델/에이전트를 분리(심층 판단용 Opus, 분석·디버깅용 Sonnet, 빠른 실행용 Haiku)하여 라우팅함으로써 비용·지연·정확도 균형을 맞춤.
  • 태그: 아키텍처, 모델라우팅

  • 🔄 [개선] 에이전트 수평 확장으로 기능 분화

  • 기존 에이전트 8개를 12개로 늘려 역할을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등) — 책임을 좁혀 병행 작업과 심층 검사 효율을 높임.
  • 태그: 운영, 스케일

  • ⚖️ [판단] 공식 문서 변경 시 로컬 재확인 후 정정

  • 초기엔 OpenAI 문서에서 gpt-5.4-mini 미확인으로 기록했다가, 다시 확인해 공개 표기가 있음을 반영해 의사결정을 정정함 — 문서 기반 판단은 반복 검증으로 확정한다.
  • 태그: 검증, 문서근거

  • 🔧 [해결] 로컬 툴의 모델 오버라이드 활용

  • 공식 공개 여부가 불확실할 때는 Codex CLI의 -m/--model 또는 config.toml 같은 로컬 오버라이드를 활용해 실무에서 모델 변경을 시험·적용함.
  • 태그: 툴사용, 실험

  • 💡 [발견] LLM 호출 통계로 운영 건강 판단

  • 총 호출수·성공률·프롬프트·응답량·에러 수, 모델별 평균 레이턴시를 지속적으로 기록해 운영 상태와 병목(특정 모델 레이턴시·에러)을 발견함.
  • 태그: 모니터링, 지표

  • 🔧 [해결] 복구 리포트·테스트 자동화 병행

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 만들어 장애 대응을 코드화하고 재현성 있는 검증 루틴을 확보함.
  • 태그: 테스트, 자동화

  • 📚 [교훈] 초기 응답 실수는 빠른 사과와 보충 제공

  • 사용자 문의에서 특정 섹터(Vg)를 누락했을 때 사과하고 해당 섹터를 포함한 전체 맵을 정리 제공함 — 실수 발생 시 빠르게 인정하고 보완 자료를 제공하는 것이 신뢰 회복에 효과적임.
  • 태그: 커뮤니케이션, 사용자응대

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽해서 부분 도입
  • OMC 전체 도입 대신 도메인 적합성 고려해 핵심 3가지만 선별(cherry-pick)해 구현함 — 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction. 전체 도입보다 선택적 적용으로 비용·리스크 감소.
  • 태그: 적용전략, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 작업 성격에 따라 계층화

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku로 3단계로 라우팅해 모델 역량과 작업 요구를 맞춤 배분함 — 성능·응답속도·정확성 기준으로 배치.
  • 태그: 모델선택, 운영정책

  • 💡 [발견] 모델별 레이턴시·호출 분포는 라우팅 정책에 영향

  • 클라이언트 통계에서 cliproxy/claude-sonnet-4-6의 호출 비중이 높고 레이턴시가 낮아 분석·디버깅 작업에 적합함을 확인, 실제 라우팅 설계에 반영됨.
  • 태그: 계측, 모델성능

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 역할을 추가 — 기능별 책임 분리로 병렬 처리·유지보수 용이성 개선.
  • 태그: 아키텍처, 확장성

  • 📚 [교훈] 공식 문서 확인으로 오해 정정

  • 초기에 gpt-5.4 mini 공개 여부가 불확실했으나 공식 문서 재확인으로 정정함 — 외부 정보는 바로 결론내지 말고 공식 소스 크로스체크 필요.
  • 태그: 검증, 정보신뢰도

  • 🔧 [해결] 리커버리 리포트 자동화와 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 만들어 자동화 도입 시 안정성 검증을 병행함 — 자동화 도입 전후 검증 루프 확보.
  • 태그: 자동화, 테스트

  • 💡 [발견] 프롬프트·응답 볼륨·성공률 로그는 운영 의사결정 근거

  • 세션별 총 호출·성공률·프롬프트 문자수·응답 문자수·에러 수를 지속 집계해 모델 선택, 라우팅, 오류 대응 정책 수립에 활용함.
  • 태그: 운영지표, 모니터링

2026-03-19

  • 🔧 [해결] 필요한 기능만 체리픽해 도입
  • 대규모 OMC 전체 도입 대신 도메인 적합성에 따라 핵심 3가지를 선택해(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 단계적으로 구현하여 비용과 복잡도 줄임.
  • 태그: 체리픽, 비용절감, 모듈화

  • 🔧 [해결] 모델별 라우팅으로 역할 분담

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델/에이전트를 역할별로 라우팅해 처리 속도와 품질 균형을 맞춤.
  • 태그: 모델선택, 라우팅, 성능관리

  • ⚖️ [판단] 도입 여부는 도메인 적합성 기준으로 결정

  • 새 기법·도구 도입 시 전체 적용 대신 해당 도메인에서의 적합성(예: 코드 개발 전문성 유무)을 기준으로 도입 범위를 축소하거나 확장함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·성공률 편차 관찰

  • 동일 워크로드에서 모델별 호출 수·평균 레이턴시·성공률 통계를 수집해 빠른 응답이 필요한 작업에는 낮은 레이턴시 모델을 우선 배치해야 함을 확인함.
  • 태그: 모델모니터링, 계량지표

  • 🔄 [개선] 작업별 에이전트 증설로 처리 병렬화

  • 필요 시 에이전트를 8개에서 12개로 확장하여 역할을 세분화(analyst, report-writer, pipeline-debugger-deep 등)하고 병렬 처리 능력과 책임 경계를 개선함.
  • 태그: 스케일링, 조직화

  • 📚 [교훈] 정확하지 않은 초기 정보는 즉시 정정과 기록

  • Codex 출시 여부 관련 초기 확인 불가 상태에서 정정된 자료(공식 문서 확인)를 발견하면 즉시 로그에 정정 기록해 혼선 방지함.
  • 태그: 정보검증, 기록

  • 📚 [교훈] 프롬프트·응답 통계는 운영 최적화 근거

  • 프롬프트 총량·응답량·에러수 등 LLM 호출 통계를 꾸준히 기록하면 모델 선택, 재시도 정책, 비용·성능 트레이드오프를 근거 있게 결정할 수 있음.
  • 태그: 운영계측, 정책결정

2026-03-19

  • 🔧 [해결] 체리픽으로 복잡한 도입을 피함
  • OMC 전체 도입이 도메인과 맞지 않을 때는 전체 적용 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 3가지만 선택적으로 구현해 효과를 얻음.
  • 태그: 범위축소, 우선순위, 실행전략

  • ⚖️ [판단] 모델 라우팅은 역할 기준으로 나눔

  • 에이전트 확장 시 성능/목적에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델별 역할을 명확히 분리해 라우팅을 결정함.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 문제별로 모델 지연시간 차이 확인 필요

  • 세션 통계에서 모델별 평균 레이턴시가 크게 달라(예: gpt-5-mini 14s vs sonnet 4–5s) 응답성 요구에 따라 모델을 할당해야 함이 확인됨.
  • 태그: 측정, 성능, 모델할당

  • 🔧 [해결] 로컬 툴로 모델 오버라이드 지원 확인

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원하므로 로컬 환경에서 필요한 모델로 빠르게 전환해 실험·배포할 수 있음.
  • 태그: 툴사용법, 운영

  • 🔄 [개선] 체계적 로그·파일 생성으로 반복 작업 표준화

  • 새 에이전트 추가·스크립트 생성 시 관련 md·sh·py 파일을 규칙적으로 생성해 변경 이력과 재사용 가능한 구성(예: vault-inspector-deep.md, preemptive-compaction.sh)을 남김.
  • 태그: 거버넌스, 재현성

  • 💡 [발견] 데이터 정정은 빠르게 업데이트해야 혼선 방지

  • 08:15에 공개 불가라고 판단했다가 08:16에 문서 공개 표기로 정정한 사례에서 보듯, 외부 정보 확인 결과는 즉시 기록·정정해야 추후 의사결정 오류를 줄임.
  • 태그: 정보검증, 정정프로세스

  • 🔧 [해결] 핵심 섹터 맵으로 사용자의 불만 해소

  • 사용자(주식문의)에 대해 단일종목 응답 대신 '섹터별 수혜주 맵'을 제공해 불만(소개 누락)을 해소하고 맥락을 넓혀 추천 근거를 제공함.
  • 태그: 고객대응, 정보설명

  • ⚖️ [판단] 종목 소개는 사건·수급 기반으로 우선순위 결정

  • 전쟁·공급 차질 같은 사건(예: 무기증산, Shah 가스전 피격)이 발생하면 방산·에너지·비료 등 수혜 섹터를 우선 소개하는 기준을 적용함.
  • 태그: 판단기준, 도메인지식

  • 📚 [교훈] 프롬프트·호출 통계는 운영 의사결정의 근거

  • LLM 호출량·성공률·프롬프트·응답 총량을 꾸준히 수집하면 모델 선택·에러 대응·비용 최적화 판단에 유용하므로 통계 수집을 표준 프로세스로 유지해야 함.
  • 태그: 관찰→행동, 운영모니터링

  • 📚 [교훈] 작업 분해 후 작은 단위로 자동화·테스트

  • recovery 리포트 자동화→recovery_collector 단위/통합 테스트 작성처럼 큰 자동화는 유닛·통합 테스트로 쪼개어 검증해야 안정적으로 운영 가능함.
  • 태그: 테스트, 자동화, 안정성

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽만 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 관련된 유용 기능 3가지를 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 부분 적용함.
  • 태그: 도입전략, 비용효율

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 모델 선택(예: Opus/심층 판단, Sonnet/분석·디버깅, Haiku/빠른 실행)을 작업 성격(심층 판단 vs 분석 vs 단순 실행) 기준으로 라우팅함.
  • 태그: 모델선택, 라우팅

  • 💡 [발견] 모델별 성능·레이턴시 차이 관찰

  • 같은 호출 환경에서 모델별 평균 레이턴시가 크게 다르며(예: cliproxy/claude-sonnet 낮음, github-copilot 높음), 작업에 맞춰 모델을 배치하면 효율 개선 가능.
  • 태그: 모델성능, 관찰

  • 🔄 [개선] 실행부·심층부 분리로 에이전트 확장

  • 에이전트 수를 기존 8개에서 12개로 늘리고 역할을 세분화(analyst, report-writer, pipeline-debugger-deep 등)해 책임 분리와 병렬 처리 향상.
  • 태그: 아키텍처, 스케일링

  • 🔧 [해결] 문헌·공식 문서로 모델 공개 여부 재확인

  • 모델 공개 여부가 불확실할 때는 공식 문서와 로컬 툴 지원 여부(예: Codex CLI의 -m/--model, config.toml)를 교차 확인해 결정을 정정함.
  • 태그: 검증절차, 신뢰성

  • 🔄 [개선] 리포트·복구 자동화로 반복업무 축소

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 수작업 리포트와 회복절차를 자동화하려는 흐름.
  • 태그: 자동화, 테스트

  • 💡 [발견] 프롬프트·응답 총량으로 작업 비용 가늠

  • 세션별 프롬프트 총량·응답 총량·호출 수·성공률을 수집해 작업별 비용(토큰·시간)과 신뢰도를 계량적으로 평가함.
  • 태그: 계측, 운영지표

  • 📚 [교훈] 초기 판단은 자료 확인 후 정정 가능성 열어두기

  • 08:14의 비공개 확인 → 08:16에 공식 문서 확인 후 정정한 사례처럼, 초기 결론을 내릴 때는 공식 근거 확인 및 추후 정정 프로세스를 마련해야 함.
  • 태그: 의사결정, 검증습관

  • 🔧 [해결] 사용자 불만(종목 누락)에는 전체 맵으로 응대

  • 특정 종목 문의에 대해 단답형 대신 관련 섹터·대표 종목·핵심 포인트를 맵 형태로 정리해 전체 맥락을 제공함.
  • 태그: 사용자응대, 정보구성

  • 💡 [발견] 이벤트(전쟁 등)와 섹터 성과의 직접 연관성 관찰

  • 지정학적 사건이 방산·에너지·금·해운·비료 등 특정 섹터의 수익률 급등과 직접 연결되며, 사건 기반 스크리닝이 유효함.
  • 태그: 시장관찰, 이벤트드리븐

2026-03-19

  • 🔧 [해결] 복합 모델 라우팅으로 역할 분담
  • 작업 성격에 따라 모델을 세 그룹으로 나눠 라우팅(심층 판단 → Opus, 분석·디버깅 → Sonnet, 빠른 실행 → Haiku). 각 모델에 맞는 에이전트 역할을 배치해 응답 품질과 속도 균형을 맞춤.
  • 태그: 모델라우팅, 아키텍처, 성능

  • ⚖️ [판단] 전체 도입 vs 체리픽 — 도메인 적합성으로 결정

  • 대규모(OMC) 전체 도입 대신 코드 개발 도메인 부적합을 이유로 핵심 3가지만 체리픽해 도입 범위를 제한함. 즉 도메인 적합성을 우선 판단 기준으로 사용.
  • 태그: 의사결정, 범위관리

  • 💡 [발견] 모델별 레이턴시·성공률 편차 확인

  • 세션 통계에서 모델별 호출 수·평균 레이턴시·성공률을 수집해 특정 모델(예: cliproxy/claude-sonnet)이 낮은 레이턴시로 반복적 작업에 유리함을 확인.
  • 태그: 관찰, 모니터링, 성능지표

  • 🔄 [개선] preemptive-compaction 훅으로 프롬프트·응답 최적화

  • 새 훅(preemptive-compaction.sh)과 learner 패턴을 만들어 프롬프트 길이와 응답을 사전 정리·압축해 LLM 호출 효율을 향상시킴.
  • 태그: 워크플로우, 비용절감, 프롬프트엔지니어링

  • 🔧 [해결] 체리픽으로 불필요한 전체 변환 회피

  • 기능 전체 전환 대신 핵심 기능(모델별 에이전트 분리, learner 추출, compaction)만 먼저 구현해 리스크와 개발 비용을 줄임.
  • 태그: 릴리즈전략, 리스크관리

  • 📚 [교훈] 공식 문서 확인 절차의 반복적 정정 필요

  • 초기에 gpt-5.4 mini 공개 여부를 확인하지 못했다가 정정 기록 발생. 외부 문서(공식 모델 문서) 확인과 로컬 검증 절차를 표준화할 필요가 있음.
  • 태그: 운영절차, 검증, 문서화

  • 💡 [발견] 도메인 이벤트(전쟁)와 섹터별 주가 상관관계

  • 대화 로그 분석으로 전쟁·지정학적 이벤트가 방산·에너지·금·사이버보안·해운·비료 등 섹터에 뚜렷한 수혜를 주는 패턴을 도출함.
  • 태그: 도메인지식, 인사이트, 금융

2026-03-19

  • 🔧 [해결] 문제 영역이 넓을 때 체리픽으로 핵심만 적용
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 전체 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지만 선택 적용하여 비용과 적합성 문제를 해결함.
  • 태그: 범위관리, 최소실행, OMC

  • ⚖️ [판단] 모델 라우팅은 역할별 성격으로 결정

  • Agent 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 모델 성격(심층 vs 분석 vs 빠른 실행)에 따라 3단계로 분리해 작업을 할당하기로 결정함.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 프롬프트·응답 비율로 호출 비용과 산출 파악

  • 세션별 프롬프트 총량과 응답 총량, 호출 수/성공률/레이턴시를 집계해 어떤 모델이 비용(토큰)·속도·신뢰도 면에서 유리한지 실증적으로 파악함.
  • 태그: 측정지표, 운영모니터링

  • 🔄 [개선] 에이전트 확장은 기능별로 세분화

  • 기존 에이전트 수를 8→12로 확장하며 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 기능별 전문 에이전트를 추가해 책임분리와 전문성 향상 도모.
  • 태그: 조직구성, 모듈화

  • 🔧 [해결] 사전 압축(preemptive-compaction)으로 시스템 부하 완화

  • 프롬프트/로그 등 데이터를 사전에 컴팩트 처리하는 훅을 추가해 LLM 호출·스토리지 부하를 줄이고 처리 속도를 개선함(파일: preemptive-compaction.sh).
  • 태그: 성능개선, 데이터관리

  • 📚 [교훈] 초기 문서 확인 없이 빠르게 결론 내리면 정정 발생

  • 08:14에 gpt-5.4 mini 공개 여부를 확인 불가라 판단했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정함 — 중요한 사실은 즉시 공식 문서/원본에서 재확인해야 함.
  • 태그: 검증절차, 실수교훈

  • 💡 [발견] 전쟁/지정학 이벤트는 특정 섹터에 빠르게 영향

  • 대화 로그에서 전쟁 관련 뉴스가 방산·에너지·금·사이버보안·해운·비료 등 섹터별로 즉각적 수혜/수익률 변화를 유발한다는 사실을 확인함 — 이벤트 기반 섹터 맵 작성 유효.
  • 태그: 도메인인사이트, 시장반응

  • 🔄 [개선] 자동화 스크립트→테스트→보고 흐름으로 안정성 확보

  • recovery 리포트 자동화 스크립트 작성 후 recovery_collector 유닛/통합 테스트를 순차적으로 작성해 자동화 신뢰도를 검증하는 워크플로우를 따름.
  • 태그: 테스트, 자동화워크플로우

2026-03-19

  • 🔧 [해결] 대규모 도입 대신 체리픽으로 핵심만 도입
  • OMC 전면 도입은 도메인 불일치로 비효율적이라고 판단하고, 대신 모델별로 필요한 3가지 기능(에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택적으로 구현해 효과만 취함.
  • 태그: 구현전략, 비용절감, 체리픽

  • 🔧 [해결] 모델별 역할 분리로 라우팅 단순화

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)으로 3단계 모델 라우팅을 설계해 각 모델의 강점에 맞게 요청을 분배함.
  • 태그: 아키텍처, 모델라우팅, 역할분리

  • ⚖️ [판단] 전면 적용 vs 선택적 체리픽 — 도메인 적합성 기준

  • 새 기술을 전면 적용할지 판단할 때 '팀의 도메인 적합성'을 기준으로 삼음. 도메인과 맞지 않으면 전체 도입 불필요, 핵심 기능만 선별 도입.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·성공률 차이가 운영에 영향

  • 세션 통계에서 모델별 호출 수, 평균 레이턴시, 성공률을 수집해 보니 특정 모델(cliproxy/claude-sonnet)이 낮은 레이턴시로 많은 요청을 처리해 운영 효율에 유리함.
  • 태그: 관찰, 모니터링, 성능지표

  • 🔄 [개선] 에이전트 확장으로 기능을 세분화

  • 필요 기능을 새 에이전트로 분리(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)해 책임을 분산시키고 유지보수·확장성을 개선함.
  • 태그: 조직구조, 마이크로서비스, 유지보수

  • 🔄 [개선] 자동화 스크립트 + 유닛테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하면서 동시에 recovery_collector의 유닛·통합 테스트를 추가해 자동화 신뢰도를 높임.
  • 태그: 테스트, 자동화, 신뢰성

  • 📚 [교훈] 공식 문서 확인의 중요성 — 시점에 따라 정보가 바뀜

  • 초기에 gpt-5.4 mini 공개 여부를 확인 못했다가 정정함. 즉시 공식 문서를 재확인하고 변경 사항을 로그로 남겨야 정보 혼선 방지 가능.
  • 태그: 절차, 문서검증, 소통

  • 📚 [교훈] 통계 기반 의사결정으로 편향 완화

  • LLM 호출 통계(총 호출, 성공률, 에러 수, 프롬프트/응답량)를 정기적으로 기록하니 모델 선택·라우팅·성능 개선 판단이 객관적으로 가능해짐.
  • 태그: 데이터중심, 운영관리, 계량화

2026-03-19

  • 🔧 [해결] 큰 변화는 체리픽으로 제한해 빠르게 적용
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 필요한 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 비용과 복잡도를 낮추고 즉시 효과를 얻음.
  • 태그: 체리픽, 비용절감, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할(심층·분석·빠른실행) 기준으로 분리

  • 에이전트 확장 시 Opus/Sonnet/Haiku로 역할을 나눠 심층 판단·분석·빠른 실행에 각각 최적화된 모델 라우팅을 적용하여 처리 지연과 품질을 균형시킴.
  • 태그: 모델선택, 라우팅, 역할분담

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 모델을 변경할 수 있어 로컬 환경에서 모델 전환이 가능함을 확인함(문서 확인→정정 과정으로 확인됨).
  • 태그: 도구기능, 모델전환

  • 🔄 [개선] 에이전트 기능은 점진 확장으로 위험 분산

  • 기존 8개에서 12개로 에이전트를 늘리되 역할별로 추가(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)하여 한 번에 큰 변경 없이 기능을 세분화·확장함.
  • 태그: 점진적배포, 모듈화, 리스크관리

  • 🔧 [해결] 복구 리포트 자동화로 반복작업 제거

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 수동 리포트 작성과 검증 비용을 줄임.
  • 태그: 자동화, 테스트

  • 💡 [발견] 모델별 레이턴시·호출패턴이 운영비용에 영향

  • 로그에서 모델별 호출 수와 평균 레이턴시(예: github-copilot 긴 레이턴시, claude-sonnet 낮은 레이턴시)를 관찰해 비용·지연 관리를 위해 모델 선택이 중요하다는 사실을 확인.
  • 태그: 관찰, 성능계측

  • 📚 [교훈] 초기 정보 불확실성은 바로 정정·기록하라

  • 08:14에 gpt-5.4 mini 공개 불확실이라고 기록했다가 08:16에 공식 문서 확인으로 정정함 — 불확실할 땐 잠정표기 후 빠르게 소스 확인·정정 기록을 남기는 프로세스가 필요함.
  • 태그: 의사결정로그, 정정절차, 투명성

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 핵심만 체리픽
  • 전체 OMC 도입이 도메인과 맞지 않으면 전면 적용 대신 코드 개발에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택적으로 구현해 비용·복잡도 감소 및 효과 보장한다.
  • 태그: 체리픽, 범위절제, 리스크관리

  • ⚖️ [판단] 모델 라우팅은 작업 성격에 따라 분리

  • 심층 판단, 분석·디버깅, 빠른 실행 등 작업 특성에 따라 Opus/Sonnet/Haiku처럼 모델/에이전트를 단계별로 라우팅해 성능·비용·응답속도 균형을 맞춘다.
  • 태그: 모델선택, 라우팅, 성능관리

  • 💡 [발견] LLM 호출 통계로 운영 의사결정 가능

  • 모델별 호출 수·성공률·평균 레이턴시를 수집하면 어떤 모델을 주력으로 쓸지, 실패 원인 및 최적화 지점을 판단할 수 있다(예: sonnet 낮은 레이턴시, gpt-5-mini 실패).
  • 태그: 관찰, 모니터링, 메트릭

  • 🔄 [개선] 사전 압축(preemptive-compaction)으로 시스템 부담 완화

  • 프롬프트·세션 데이터를 미리 컴팩션하는 훅을 추가해 LLM 호출량·토큰 사용을 줄이고 응답 품질/비용을 개선한다.
  • 태그: 성능개선, 토큰관리, 자동화

  • 🔄 [개선] 에이전트 기능을 세분화해 확장성 확보

  • 기존 에이전트(8개)를 작업 유형에 맞춰 특화 에이전트로 확장(12개)하면 역할 분담이 명확해지고 병렬 처리·유지보수가 쉬워진다(analyst, report-writer, pipeline-debugger-deep 등 추가).
  • 태그: 아키텍처, 스케일링, 모듈화

  • 🔧 [해결] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector에 대해 유닛/통합 테스트를 추가해 복구 파이프라인 신뢰성을 높인다.
  • 태그: 자동화, 테스트, 신뢰성

  • 📚 [교훈] 공식 문서 확인 없이 단정하지 말 것

  • gpt-5.4-mini 공개 여부를 두 번에 걸쳐 정정한 사례 — 외부 주장 전에 공식 모델 문서를 먼저 확인하고 변경은 근거 있는 소스로 기록해야 한다.
  • 태그: 검증, 문서화, 실수복구

  • 📚 [교훈] 메트릭 변화는 곧 정책 변경 신호

  • 호출 성공률/레이턴시/에러 등이 변하면 바로 라우팅·모델 오버라이드 정책을 검토해야 함 — 운영 중 수치 기반으로 빠르게 판단하고 조치하라.
  • 태그: 운영지침, 관찰->행동, SRE

  • ⚖️ [판단] 도메인 전문성 우선으로 도입 범위 결정

  • 새 기법이나 프레임워크 도입 시 팀의 주된 전문성과 맞는지 여부를 기준으로 전면 도입 vs 선택적 적용을 판단한다(전문성이 없으면 부분 채택).
  • 태그: 의사결정기준, 도입전략

2026-03-19

  • 🔧 [해결] 문제 핵심만 체리픽해서 적용
  • OMC 전면 도입 대신 도메인 적합성에 따라 핵심 3가지를 선별(cherry-pick)해 구현함 — 전체 복잡도 줄이고 빠른 가치 도출에 집중하는 방식.
  • 태그: 의사결정, 효율화

  • 🔧 [해결] 모델별 역할 분리로 작업 최적화

  • 모델 라우팅을 통해 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 에이전트를 분리해 각 작업에 적합한 모델·패턴을 배정함.
  • 태그: 아키텍처, 모델배치

  • ⚖️ [판단] 도메인 적합성 기준으로 기술 선택

  • 새 기술이나 프레임워크 도입 여부는 '도메인 적합성'을 기준으로 판단 — 개발 전문성과 맞지 않으면 부분 적용 또는 미도입.
  • 태그: 판단기준, 도메인

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원함을 확인 — 로컬 환경에서 모델 전환이 가능함.
  • 태그: 발견, 도구

  • 🔄 [개선] 사전 압축(preemptive-compaction)으로 리소스 절감

  • preemptive-compaction 훅을 추가해 데이터/프롬프트 크기를 미리 줄임으로써 LLM 호출 비용과 레이턴시를 개선하려는 워크플로우 개선.
  • 태그: 성능, 워크플로우

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분화

  • 기존 8개 에이전트를 12개로 확장해 분석, 리포트, 디버깅, 크론 진단 등 전문 역할을 분리하여 작업 병렬화와 책임 명확화 달성.
  • 태그: 조직, 스케일링

  • 📚 [교훈] 초기 정보 부정확성은 빠른 정정 프로세스로 보완

  • gpt-5.4 mini 공개 여부 관련 초기 불확실성(08:14) → 즉시 재검증 후 정정(08:16)하여 로그에 기록함. 빠른 검증·정정 루프 필요.
  • 태그: 교훈, 검증

  • 💡 [발견] 모델별 레이턴시·성공률 차이는 운영 지표로 활용

  • 모델별 호출·성공률·평균 레이턴시 표를 통해 어느 모델이 비용·지연 측면에서 우수한지 파악하고 라우팅 정책에 반영함.
  • 태그: 계측, 운영

  • 🔧 [해결] 도메인 문의엔 섹터·종목 맵으로 응답

  • 사용자 투자 문의에 대해 섹터별 수익률과 대표 종목을 맵 형태로 정리해 빠르게 맥락을 제공하고 추가 질문 유도.
  • 태그: 응답패턴, 도메인지식

  • 📚 [교훈] 대화형 응답은 실수 인정 + 보완 정보 제공

  • 사용자 지적(예: 특정 종목 누락)에 대해 사과하고 누락 범위를 보완해 전체 맵을 제시함 — 신뢰 회복과 정보 보강의 표준 절차.
  • 태그: 교훈, 대화운영

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 전체 도입 대신 핵심만 체리픽
  • OMC 같은 큰 프레임워크가 전체 도입하기에 도메인 맞지 않으면, 관련 기능(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 구현하여 비용과 복잡도를 줄임.
  • 태그: 최소화, 선택적도입, 비용절감

  • ⚖️ [판단] 모델 라우팅은 '역할 기반'으로 분리한다

  • 실행 속도/목적에 따라 모델을 역할별로 배치(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행). 모델 선택 기준은 작업 성격(심층 vs 분석 vs 빠른 실행)과 레이턴시 특성으로 결정.
  • 태그: 모델선택, 라우팅, 성능기준

  • 💡 [발견] LLM 호출 통계는 운영 결정을 직접 안내한다

  • 총 호출·성공률·프롬프트량·응답량·평균 레이턴시 같은 지표를 모니터링하면 어떤 모델에 부담이 가는지, 어디서 에러가 발생하는지, 최적화 우선순위를 정하는 데 유용함.
  • 태그: 모니터링, 운영지표

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 품질을 높인다

  • 단순 수 증가보다 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 추가해 책임과 기능을 분리하면 유지보수와 병렬처리가 쉬워짐.
  • 태그: 조직설계, 확장전략

  • 📚 [교훈] 공식 문서(외부) 확인 전 임의 단정 금지

  • 처음에는 gpt-5.4 mini 공개 여부를 확인하지 못했다가 정정됨. 외부 공개/버전 정보는 문서 확인 → 로컬 검증 순으로 판단해야 함.
  • 태그: 검증절차, 정보확인

  • 🔧 [해결] 모델 오버라이드 지원 확인 → 로컬 대체 전략 수립

  • 공식 모델이 없거나 불확실할 때는 Codex CLI의 -m/--model 및 config.toml 같은 로컬 오버라이드 기능을 활용해 즉시 대체 모델로 전환 가능한 경로를 마련함.
  • 태그: 대체전략, 레질리언스

  • 💡 [발견] 프롬프트·응답 총량이 비용·지연의 실질적 지표

  • 프롬프트 총량과 응답 총량의 비율과 절대량을 보면 비용 증가, 토큰 사용 패턴, 레이턴시 문제 소지를 파악할 수 있어 프롬프트 설계 개선 포인트로 연결됨.
  • 태그: 프롬프트엔지니어링, 비용관리

  • 🔄 [개선] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 만들고 recovery_collector에 대해 유닛·통합 테스트를 작성하여 복구 절차의 신뢰성과 반복성을 높임.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 에러 발생은 수치로 기록하고 추적하라

  • 세션마다 에러 수와 성공률을 기록해 누적 패턴(예: 특정 모델에서 반복적 에러 발생)을 찾아 원인 분석과 자동 대응(비활성화 등) 규칙을 만들 필요가 있음.
  • 태그: 운영교훈, 로그분석

  • 🔧 [해결] 사용자 불만에겐 사과 + 전체 맵 제시 패턴

  • Q&A에서 특정 종목 소개 누락에 대한 불만에는 우선 사과한 뒤(톤 낮추기) 관련 섹터 전체 맵(방산·에너지·금·사이버보안·비료 등)을 정리해 제공하면 신뢰 회복과 정보 제공을 동시에 달성할 수 있음.
  • 태그: 커뮤니케이션, 고객응대

2026-03-19

  • 🔧 [해결] 대규모 기능은 체리픽해서 필요한 부분만 가져오기
  • 프로젝트 전체 OMC 도입은 도메인·비용 부적합으로 판단하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 3가지를 선별해 적용하여 비용·복잡도를 줄이며 핵심 효과만 확보함.
  • 태그: 체리픽, 비용절감, 모듈화

  • ⚖️ [판단] 모델 라우팅은 역할(심층 판단 vs 분석·디버깅 vs 빠른 실행)로 결정

  • 세 모델(Opus/심층 판단, Sonnet/분석·디버깅, Haiku/빠른 실행)을 역할 기반으로 나눠 라우팅함 — 판단 기준은 응답 성격(심층 vs 분석 vs 속도)과 작업 특성.
  • 태그: 모델선택, 역할기반, 라우팅

  • 💡 [발견] 로컬 툴링은 모델 오버라이드로 빠르게 대체 가능

  • Codex CLI가 -m/--model 및 config.toml model 키로 모델 오버라이드를 지원함을 확인 — 로컬 환경에서 모델 변경이 필요할 때 문서/CLI 옵션 확인이 곧 해결책이 됨.
  • 태그: 도구설정, 모델오버라이드

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분화

  • 기존 8개 에이전트를 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가 — 기능별 에이전시로 책임 분리와 병렬 처리 효율 개선.
  • 태그: 아키텍처, 확장, 분업

  • 🔧 [해결] 사전정리(preemptive-compaction)와 학습 스크립트로 반복 작업 자동화

  • preemptive-compaction 훅과 session_learner.py 스크립트를 만들어 반복 데이터 정리와 패턴 추출을 자동화하여 LLM 프롬프트·응답 볼륨을 관리하고 재현성을 높였음.
  • 태그: 자동화, 데이터정리, 재현성

  • 📚 [교훈] 공식 문서 확인 없이 결론 내리지 않기

  • 08:14에 gpt-5.4 mini 공개 여부를 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기 확인으로 정정 — 외부 서비스 정보는 반드시 권위 출처(공식 문서)로 재검증할 것.
  • 태그: 검증, 정보출처, 실수교정

  • 💡 [발견] 모델별 성공률·지연 시간 모니터링은 라우팅/대체 전략의 근거가 된다

  • 세션별·모델별 호출 통계를 기록해 성공률·평균 레이턴시를 비교함으로써 어떤 모델을 어떤 작업에 할당할지 결정하는 근거 데이터를 확보함(예: Sonnet 낮은 레이턴시, gpt-5-mini 호출 실패 표기).
  • 태그: 모니터링, 운영지표, 리소스할당

2026-03-19

  • 🔧 [해결] 문제별 전문성 맞춰 체리픽 적용
  • OMC 전면 도입 대신 도메인과 맞는 '3가지 체리픽'만 선택해 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 전체 도입 비용이 클 때 핵심만 골라 빠르게 배포하는 방식.
  • 태그: 빠른배포, 범위축소, 우선순위

  • 🔧 [해결] 모델 성격에 따른 라우팅 분리

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 모델 라우팅을 설계해 각 모델에 적합한 태스크를 자동 분배함.
  • 태그: 모델라우팅, 작업분배, 성능최적화

  • ⚖️ [판단] 도메인 적합성으로 도구 도입 판단

  • 새 기법(OMC) 도입 여부는 '팀/코드의 도메인 적합성'을 기준으로 판단 — 도메인 안 맞으면 전체 도입 대신 선별 체리픽 적용.
  • 태그: 의사결정기준, 도입검토

  • 💡 [발견] 모델별 호출·레이턴시 차이 관찰

  • 같은 세션에서 모델별 호출 수와 평균 레이턴시가 크게 다름(예: cliproxy/claude-sonnet-4-6이 호출 많고 레이턴시 낮음), 비용·성능·용도에 따라 모델 선택 기준이 달라짐.
  • 태그: 모델성능, 관측

  • 🔄 [개선] preemptive-compaction 훅으로 프롬프트 효율화

  • preemptive-compaction 스크립트·훅을 추가해 프롬프트 길이/토큰 사용을 사전 압축함으로써 호출 효율과 비용을 개선하는 워크플로우로 전환.
  • 태그: 프롬프트관리, 비용절감, 파이프라인

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 에이전트를 8→12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 분리해 책임을 명확히 하고 병렬 처리 능력을 높임.
  • 태그: 아키텍처, 확장성, 역할분리

  • 📚 [교훈] 공식 문서 확인의 중요성(정정 사례)

  • 초기에 gpt-5.4 mini 공개 여부를 확인 못했다가 문서 재검토로 공개 표기 확인—중요 결정 전 공식 문서 재검증을 반드시 수행해야 함.
  • 태그: 검증절차, 실수교훈

  • 📚 [교훈] 모델 오버라이드 가능성 체크 필요

  • Codex CLI가 -m/--model 및 config.toml로 모델 오버라이드 지원을 확인함. 운영 환경에서 모델 전환 가능성을 사전에 점검해야 배포·테스트 혼선이 줄어듦.
  • 태그: 운영절차, 사전점검

2026-03-19

  • 🔧 [해결] 작은 범위 체리픽으로 복잡한 프레임 도입 회피
  • 전체 OMC 도입은 도메인 불일치로 부적절하다고 판단하고, 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 3가지 핵심만 선택해 구현함 — 큰 설계 전면적 도입 대신 영향 큰 부분만 골라 적용하여 비용·리스크를 줄임.
  • 태그: 체리픽, 리스크관리, 점진적도입

  • ⚖️ [판단] 모델 라우팅 설계는 역할 기준으로 분류

  • 성능·목적에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 3단계 모델 라우팅을 결정 — 모델 선택 기준을 '작업 성격(심층 vs 분석 vs 빠른 실행)'으로 명확히 함.
  • 태그: 모델선택, 아키텍처, 역할기반

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • 공식 문서 확인 과정에서 Codex CLI가 -m/--model 옵션과 config.toml의 model 키로 로컬에서 모델 변경을 지원함을 확인하여 운영 유연성이 있음을 발견함.
  • 태그: 도구역량, 운영유연성

  • 🔄 [개선] 자동화 테스트·리포트 파이프라인 강화

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 추가로 장애 수집·보고 흐름을 자동화하고 검증 커버리지를 높임 — 수동 리포트→자동 수집+테스트 방식으로 개선.
  • 태그: 자동화, 테스트, 운영

  • 📚 [교훈] 구성·문서 확인을 반복해 판단 정정

  • 처음에는 gpt-5.4-mini 공개 여부를 확인하지 못했다가 문서 재검토로 정정함 — 중요한 외부 사실은 한 번의 확인으로 끝내지 않고 공식 문서 재확인과 로컬 툴 검증을 병행해야 함.
  • 태그: 검증, 문서검토, 운영절차

  • 🔧 [해결] LLM 호출 효율성은 모델별 역할 분담으로 개선

  • 콜 수와 레이턴시 통계를 바탕으로 빠른 응답이 필요한 작업은 낮지연 모델(예: Sonnet 계열)을, 심층 판단은 고성능 모델(Opus 등)을 할당하여 전체 호출 성공률과 응답 효율을 유지함.
  • 태그: 성능최적화, 모델배치, 모니터링

  • 💡 [발견] 전쟁·지정학 이슈는 특정 섹터(방산·에너지·금·사이버 등)를 즉각적으로 움직임

  • 대화에서 전쟁 관련 뉴스가 방산·에너지·금·사이버·해운·비료 등 섹터 상승으로 연결됨을 정리 — 이벤트→섹터 매핑 패턴을 투자·리스크 분석에 재사용 가능.
  • 태그: 도메인지식, 이벤트영향, 투자분석

  • ⚖️ [판단] 기술적 결정은 '도메인 적합성'을 우선 고려

  • OMC 전체 도입을 거절한 근거로 '코드 개발 전문이므로 도메인이 맞지 않는다'를 제시 — 새로운 기술·프레임워크 도입시 팀의 도메인 적합성을 주요 판단 기준으로 삼음.
  • 태그: 거버넌스, 도메인적합성, 의사결정기준

2026-03-19

  • 🔧 [해결] 체리픽으로 범위 좁히기
  • 대규모 프레임워크(OMC)를 전체 도입하지 않고 도메인 적합한 핵심 기능 3가지를 선별해 먼저 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 위험을 줄이고 가치 실현 속도 향상.
  • 태그: 범위관리, 빠른가치화

  • 🔄 [개선] 모델 역할에 따른 3단계 라우팅

  • 작업 성격에 따라 모델을 역할별로 분리(심층 판단→Opus, 분석·디버깅→Sonnet, 빠른 실행→Haiku)하여 효율과 응답 품질을 최적화함.
  • 태그: 아키텍처, 모델라우팅

  • 💡 [발견] 모델별 레이턴시·호출 분포 차이 관찰

  • 같은 작업에서도 모델별 평균 레이턴시와 호출 수가 크게 달라 운영·비용·성능 의사결정에 직접 영향(예: cliproxy/claude-sonnet-4-6은 낮은 레이턴시로 빈번 사용).
  • 태그: 모니터링, 성능측정

  • ⚖️ [판단] 공식 문서 우선 검증 vs 로컬 확인

  • 공식 공개 여부는 문서(Models 페이지)로 먼저 확인하고, 로컬 환경에서 모델 오버라이드 등 지원 여부는 도구(Codex CLI, config.toml)로 확인해 둘 다 참조해 결론을 내림.
  • 태그: 검증기준, 데이터출처

  • 🔧 [해결] 작업 자동화→테스트 병행

  • 복구 리포트 자동화 스크립트 작성과 동시에 유닛/통합 테스트(recovery_collector 유닛 테스트)를 작성해 자동화 신뢰도를 확보함.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 초기 부정확한 정보는 즉시 정정

  • 08:14에 'gpt-5.4 mini 공개 확인 불가'라 기록했다가 08:16에 문서에서 공개 표기 확인 → 정보를 바탕으로 정정 기록을 남겨야 로그 신뢰도 유지.
  • 태그: 기록정확성, 투명성

  • 🔄 [개선] 프롬프트·응답 통계로 운영 판단

  • 총 호출·성공률·프롬프트·응답량, 모델별 성공률·레이턴시를 정기 집계해 어떤 모델·설정이 생산적·비효율적인지 근거로 의사결정에 반영.
  • 태그: 운영지표, 데이터드리븐

  • 💡 [발견] 도메인과 툴 적합성 판단 중요

  • OMC 전체 도입이 불필요하다고 판단한 근거는 '코드 개발 전문성'과 도메인 부적합성 → 도구·패턴은 도메인과 목적에 맞춰 선택해야 함.
  • 태그: 도메인적합성, 도구선택

2026-03-19

  • 🔧 [해결] 큰 프레임워크는 도메인 맞으면 일부만 도입
  • OMC 전체 도입이 도메인에 맞지 않으면 전체를 적용하지 않고, 코드 개발에 맞는 3개 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 체리픽해 적용한다. 비용·복잡도 절감 목적.
  • 태그: 체리픽, 비용절감, 적용범위

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 모델을 역할(심층 판단/분석·디버깅/빠른 실행)로 나눠 라우팅하면 각 모델 특성(정확도·응답속도)에 맞는 작업에 배치할 수 있다.
  • 태그: 모델선정, 라우팅, 성능매칭

  • 💡 [발견] 모델별 지표로 적합성 판단

  • 호출 수·성공률·평균 레이턴시를 함께 보아 어떤 모델을 주력으로 쓸지 결정한다(예: Sonnet은 낮은 레이턴시, Copilot은 높은 레이턴시지만 안정적).
  • 태그: 관측지표, 모델운영, 모니터링

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분화

  • 에이전트를 8→12개로 늘려 분석/보고/디버깅 등 역할을 세분화함으로써 책임 경계와 확장성을 개선했다.
  • 태그: 아키텍처, 스케일링, 역할분화

  • 🔧 [해결] 사전 정리 스크립트로 로그·복구 자동화

  • recovery 리포트 자동화 및 recovery_collector 유닛/통합 테스트를 작성해 복구 프로세스의 반복작업을 코드화하고 검증 가능하게 함.
  • 태그: 자동화, 테스트, 복구

  • 📚 [교훈] 공식 출처 확인 없이 단정하지 말 것

  • 초기에 gpt-5.4-mini 공개 여부를 확인하지 않고 불확실하게 답변했다가 정정한 사례 → 변경 전 공식 문서나 원출처를 먼저 확인하고 근거를 남겨야 함.
  • 태그: 검증, 출처확인, 커뮤니케이션

  • 🔄 [개선] 프롬프트·응답 통계로 운영 인사이트 확보

  • 총 호출·프롬프트 총량·응답 총량·에러 수 등 통계를 수집해 시스템 상태를 정기적으로 관찰하고 성능·비용 최적화에 활용한다.
  • 태그: 관측지표, 운영, 의사결정

  • 🔧 [해결] 작업 성격에 맞는 모델 오버라이드 사용

  • 로컬 Codex는 CLI(-m/--model)와 config.toml의 model 키로 모델을 오버라이드할 수 있으므로, 특정 작업에 필요한 모델을 명시적으로 지정해 일관성 있게 실행한다.
  • 태그: 운영절차, 모델오버라이드, 재현성

2026-03-19

  • 🔧 [해결] 복잡한 모델 필요치 않으면 체리픽으로 집중 구현
  • OMC 전체 도입은 도메인 불일치로 비용이 크므로, 필요한 기능 3가지만 골라(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 우선 구현해 가치 산출을 빠르게 확인한다.
  • 태그: 우선순위, 비용절감, 프로토타입

  • ⚖️ [판단] 모델 라우팅은 업무 성격별로 역할 분리

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 모델을 역할(심층/분석/실행)로 나눠 라우팅하면 효율과 응답속도 균형을 맞출 수 있다.
  • 태그: 모델선택, 운영전략

  • 💡 [발견] 로컬 Codex는 모델 오버라이드로 유연성 제공

  • 공식 문서에서 모델 공개 시점이 변동됐지만, Codex CLI와 config.toml의 -m/--model 키로 로컬에서 모델 변경이 가능하다는 사실을 확인했다—운영상 모델 전환이 가능함.
  • 태그: 운영, 유연성

  • 🔄 [개선] 에이전트 확장은 기능 단위로 점진 적용

  • 기능(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 개별 에이전트로 분리해 기존 8개에서 12개로 확장 — 책임 분담과 디버깅 범위가 명확해짐.
  • 태그: 아키텍처, 모듈화

  • 🔧 [해결] recovery 리포트 자동화 + 테스트 우선 작성

  • recovery 리포트 자동화 스크립트를 만들고 곧바로 유닛/통합 테스트(recovery_collector 테스트)를 작성해 자동화 신뢰도를 확보하는 워크플로우를 적용했다.
  • 태그: 자동화, 테스트주도

  • 💡 [발견] LLM 호출 통계로 모델별 비용·성능 평가

  • 통합 로그(호출수, 성공률, 레이턴시, 프롬프트/응답량)를 통해 특정 모델의 레이턴시·성공률 차이를 관찰해 라우팅·캐패시티 결정을 지원할 수 있음.
  • 태그: 모니터링, 성능측정

  • 📚 [교훈] 문서 기반 사실 확인은 시점 재검증 필요

  • 08:14에 gpt-5.4 mini 공개 확인 불가라 했으나 08:16에 공식 문서에서 공개 표기가 확인됨 — 문서 확인 시점과 소스(캐시/버전)를 함께 기록해야 혼선이 줄어든다.
  • 태그: 검증절차, 문서관리

  • ⚖️ [판단] 섹터 추천은 사건·구체적 드라이버 기준으로 선별

  • 예: 전쟁 발생 → 방산·사이버보안·에너지·금 등 수혜 섹터로 분류. 섹터 추천은 단순 수익률보다 사건(정책·공급 차질)과 실수요(예: 증산 요청, 공급 차질)로 판단한다.
  • 태그: 투자전략, 사건기반

  • 📚 [교훈] 답변 누락·편향 발생 시 빠른 보완 필요

  • 사용자 불만(Q1에서 Vg 언급)에 즉시 사과하고 누락된 섹터(전쟁 수혜주 전체 맵)를 보충한 것처럼, 사용자 피드백은 즉시 보완 및 전체 맵 제공으로 신뢰 회복한다.
  • 태그: 사용자응대, 피드백루프

2026-03-19

  • 🔧 [해결] 큰 변화는 핵심만 체리픽해 도입
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 꼭 필요한 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 적용함으로써 비용·복잡도 절감과 빠른 효과를 얻음.
  • 태그: 적용범위, 비용절감, 우선순위

  • 🔧 [해결] 모델 특성에 맞춘 3단계 라우팅

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 라우팅해 각 모델의 강점을 살려 효율을 높임.
  • 태그: 모델선택, 라우팅, 성능최적화

  • ⚖️ [판단] 도메인 적합성으로 기술 도입 여부 결정

  • 새 기술·방법론을 무조건 전체 도입하지 않고, 코드 개발 전문성과의 적합성을 기준으로 '전체 도입 vs 체리픽'을 결정함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출패턴 차이 관찰

  • 같은 작업군에서도 모델별 평균 레이턴시와 호출 수 차이가 커서(예: claude-sonnet이 레이턴시 낮음) 작업 분배가 성능·비용에 직접 영향함.
  • 태그: 모델관찰, 성능지표

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 에이전트를 8→12개로 늘려 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 더 세분화해 책임 분리와 병렬 작업 효율을 개선함.
  • 태그: 아키텍처, 스케일링, 책임분리

  • 🔧 [해결] 정정·추가 확인 후 의사결정 업데이트

  • 초기 정보(모델 공개 여부)가 불확실하면 빠르게 검증하고(문서 확인) 의사결정을 정정해 최신 상태로 로그에 반영함—오류 수정 절차가 내재화됨.
  • 태그: 검증절차, 변경관리

  • 📚 [교훈] LLM 호출 통계로 운영 리스크 관리

  • 호출 수, 성공률, 에러 수, 프롬프트·응답 총량 등 지표를 지속 모니터링해야 모델 실패·비용·성능 문제를 조기에 감지할 수 있음.
  • 태그: 모니터링, 운영

  • 🔧 [해결] 체계적 보고 맵(섹터→종목)으로 사용자 불만 해결

  • 사용자 문의(Vg 관련)에 대해 섹터별 성과와 대표 종목을 정리한 맵을 제공해 불만을 데이터 기반으로 해소함—질문 대응 시 구조화된 리포트 포맷 사용.
  • 태그: 사용자대응, 리포트템플릿

2026-03-19

  • 🔧 [해결] 거대한 프레임워크 대신 핵심 기능만 체리픽으로 적용
  • OMC 전체 도입은 도메인이 맞지 않아 불필요하다고 판단하고, 개발에 유용한 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 적용하여 비용과 복잡도를 줄임.
  • 태그: 체리픽, 비용절감, 설계

  • ⚖️ [판단] 모델 라우팅은 '역할별 분화'로 결정

  • 복잡한 요청은 Opus(심층 판단), 분석·디버깅은 Sonnet, 빠른 실행은 Haiku로 3단계 모델 라우팅을 적용해 성능·응답속도·신뢰도 균형을 맞춤.
  • 태그: 모델선택, 아키텍처, 성능

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인해 운영 유연성이 확보됨.
  • 태그: 도구능력, 운영유연성

  • 🔄 [개선] 응답 실패·에러 감시 → 리포트·테스트 자동화로 보완

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 LLM 호출 통계 변동과 에러(예: 일부 모델 0% 성공률)를 자동으로 감지하고 재현/수정 흐름을 만들었음.
  • 태그: 모니터링, 테스트, 자동화

  • 📚 [교훈] 공식 문서 확인 없이 단정하지 말 것

  • gpt-5.4 mini 공개 여부에 대해 초기에는 확인 불가로 기록했다가 곧 공식 문서에서 공개 표기를 찾아 정정함 — 외부 사실은 공식 소스로 검증해야 함.
  • 태그: 검증, 운영절차

  • 🔧 [해결] 에이전트 기능 확장은 소규모 분할로 진행

  • 에이전트를 한꺼번에 늘리지 않고 필요한 역할별(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)로 확장해 관리·검증 부담을 낮춤.
  • 태그: 확장전략, 운영안정성

  • 💡 [발견] 모델별 호출-성공률-지연 모니터링은 운영 의사결정의 핵심 데이터

  • 세션별·모델별 호출 수·성공률·평균 레이턴시를 지속 기록하여 어떤 모델에 부하를 주는지, 실패 패턴이 어디에 있는지 판단 근거로 삼음.
  • 태그: 관측, 데이터기반

  • 🔄 [개선] 복잡한 프레임워크 도입 전 도메인 적합성 평가

  • OMC 전면 도입 대신 도메인 적합성(코드 개발 전문성 여부)을 먼저 판단하고, 부적합하면 필요한 부분만 선택 적용하는 절차를 표준화함.
  • 태그: 거버넌스, 도입절차

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 선별해 도입한다
  • 전체 OMC 도입 대신 도메인 적합성에 따라 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 핵심 3가지만 선택해 구현해 비용과 복잡도를 낮춤.
  • 태그: 적용범위, 단계적도입, 비용절감

  • 🔧 [해결] 모델 능력에 따라 단계별 라우팅을 사용한다

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 역할에 맞춰 모델·에이전트를 3단계로 라우팅해 효율과 응답속도를 최적화함.
  • 태그: 모델라우팅, 역할분리, 성능

  • ⚖️ [판단] 기능 전체 도입 vs 체리픽 판단은 도메인 적합성으로 결정

  • 새 프레임워크를 전면 도입할지 여부는 팀의 핵심 전문성과 도메인 일치도를 기준으로 판단하고, 맞지 않으면 선별 도입(체리픽)으로 대체함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] LLM 호출 통계로 안정성·병목 지점을 파악한다

  • 총 호출·성공률·프롬프트/응답량·모델별 레이턴시 표를 통해 어떤 모델이 병목인지(예: github-copilot 높은 레이턴시)와 호출 안정성을 계량적으로 확인함.
  • 태그: 모니터링, 성능분석, 지표

  • 🔄 [개선] 자동화 스크립트 + 유닛테스트 동시 작성

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 만들어 자동화 신뢰도를 높임.
  • 태그: 테스트주도, 자동화, 신뢰성

  • 📚 [교훈] 문서 확인·재확인으로 정정 처리하기

  • 초기 조사에서 gpt-5.4-mini 공개 여부를 불확실하다고 기록했으나 추가 확인으로 정정함 — 불확실한 결론은 바로 정정 프로세스를 갖춰야 함.
  • 태그: 검증, 정정절차, 신뢰성

  • 💡 [발견] 모델별 성공률·레이턴시 편차는 라우팅 설계에 영향

  • 같은 세션 내에서 모델별 호출·성공률·레이턴시 차이가 큼(예: sonnet 낮은 레이턴시 다수 호출) → 라우팅·할당 기준으로 활용 가능.
  • 태그: 모델선택, 성능기반라우팅

  • 🔧 [해결] 도메인 문의에선 섹터 맵과 대표종목 리스트로 응답한다

  • 사용자 문의(예: 특정 종목 추천)에 대해 섹터별 수익률, 핵심 종목, 핵심 근거를 표·목록 형태로 정리해 신속하고 근거있는 답변 제공.
  • 태그: 사용자응답패턴, 금융리서치, 표형정리

  • ⚖️ [판단] 모델 오버라이드 지원은 CLI·설정 파일로 확인

  • 로컬 Codex의 모델 변경 가능성은 실제 CLI 옵션(-m/--model)과 config.toml의 model 키 지원 여부로 판단해 실무 적용 방법을 결정함.
  • 태그: 운영절차, 실행가능성확인

  • 📚 [교훈] 작업 확장 시 명확한 에이전트 역할 추가를 기록하라

  • 에이전트 수를 8→12로 확장하면서 추가된 에이전트명(analyst, report-writer 등)과 역할을 로그에 남겨 후속 운영·디버깅에서 혼선 방지.
  • 태그: 운영기록, 확장관리, 투명성

2026-03-19

  • 🔧 [해결] 대규모 프레임워크 전면 도입 대신 체리픽으로 필요한 기능만 가져오기
  • OMC 전체를 도입하지 않고 코드 개발에 맞는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현함으로써 도메인 부적합 리스크를 줄이고 개발 비용을 절감했다.
  • 태그: 체리픽, 리스크관리, 빠른실행

  • ⚖️ [판단] 모델/에이전트 라우팅은 역할별로 계층화한다

  • 심층 판단(Opus)/분석·디버깅(Sonnet)/빠른 실행(Haiku)처럼 모델·에이전트를 목적·성능 특성에 따라 3단계로 라우팅해 요청을 분산시키는 기준을 적용했다.
  • 태그: 모델라우팅, 아키텍처, 성능멀티티어

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원을 제공한다

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델 변경을 지원하는 것을 확인해, 배포·테스트 유연성이 확보됨을 발견했다.
  • 태그: 도구기능, 설정관리

  • 🔄 [개선] 전략 변경 시 검증 가능한 1차 출처 확인 프로세스 추가

  • 초기엔 공식 문서에서 모델 공개 여부 확인 불가로 기록했다가 곧 정정됨. 이를 계기로 외부 문서(공식 Models 문서) 확인 절차를 의사결정 워크플로우에 명시적으로 포함시켰다.
  • 태그: 검증절차, 정보정합성, 워크플로우

  • 🔧 [해결] 복구 리포트·수집 자동화로 테스트 커버리지 확보

  • recovery 리포트 자동화 스크립트 및 recovery_collector 유닛/통합 테스트를 작성해 장애 수집·리포트 절차를 자동화하고 검증 가능하도록 개선했다.
  • 태그: 자동화, 테스트, 복구

  • 📚 [교훈] 문서 근거 없이 결론 내리지 말기 — 정정의 비용 발생

  • 08:15에 gpt-5.4 mini 공개 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기가 확인되어 정정함. 출처 확인을 소홀히 하면 기록·의사결정 신뢰도에 비용이 발생한다는 교훈.
  • 태그: 출처검증, 신뢰성, 절차

  • 💡 [발견] 운영 지표(호출 수·성공률·프롬프트/응답량)는 의사결정·조정 근거로 사용됨

  • 세션마다 LLM 호출 통계(총 호출·성공률·프롬프트/응답 총량·에러 수 등)를 수집해 모델 선택·재시도·에이전트 확장 판단에 활용했다.
  • 태그: 모니터링, 메트릭, 운영

  • 🔄 [개선] 에이전트 역할 확장으로 작업 분담 명확화

  • 에이전트 수를 8개에서 12개로 확장하고 analyst/report-writer/pipeline-debugger-deep/cron-doctor-deep 같은 역할을 추가해 책임 영역을 세분화하고 병렬 처리 능력을 높였다.
  • 태그: 조직화, 스케일링, 역할분담

2026-03-19

  • 🔧 [해결] 큰 프레임 도입 대신 체리픽으로 효율화
  • OMC 전체 도입은 도메인 불일치로 비효율적이라고 판단하고, 필요한 기능 3가지만 골라(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 구현해 비용과 복잡도를 줄임.
  • 태그: 아키텍처, 범위관리, 비용절감

  • ⚖️ [판단] 모델 역할별 라우팅은 기능 우선순위로 결정

  • 모델을 Opus/ Sonnet/ Haiku로 분리해 심층 판단·분석·빠른 실행 등 역할을 배정함으로써 성능·레이턴시·기능 요구를 근거로 라우팅 전략을 수립함.
  • 태그: 모델선택, 라우팅, 성능기준

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 플래그와 config.toml의 model 키로 로컬 모델을 변경할 수 있어, 공식 리포지터리 공개 시점과 별개로 실험 가능함을 확인함.
  • 태그: 툴링, 실험환경, 운영

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 기존 8개에서 12개로 에이전트를 늘려 analyst/report-writer 등 기능별 에이전트를 분리함으로써 책임 경계와 병렬 처리 능력을 향상시킴.
  • 태그: 조직화, 병렬처리, 책임분리

  • 📚 [교훈] 공식 문서 확인 후 정보 정정 프로세스 필요

  • 초기에 gpt-5.4 mini 공개 여부를 확인하지 못하고 잘못 기록했다가 이후 문서에서 공개 표기를 찾아 정정함 — 외부 정보는 변경 시점에 다시 확인하는 절차를 둬야 함.
  • 태그: 정보검증, 절차, 품질관리

  • 🔧 [해결] 패턴 추출 + 사전정리(Preemptive compaction)로 LLM 호출 효율화

  • 대화 및 세션에서 learner 패턴을 추출하고 preemptive-compaction 훅을 만들어 프롬프트 길이와 호출 비용을 줄이는 방식으로 LLM 사용 효율을 개선함.
  • 태그: 프롬프트엔지니어링, 비용최적화, 자동화

  • 💡 [발견] 모델별 레이턴시·성공률 로그는 라우팅·디버깅 근거가 됨

  • 모델별 호출 수·성공률·평균 레이턴시를 지속 수집해 어떤 모델에 어떤 작업을 할당할지, 실패 패턴을 어떻게 고칠지 판단하는 데이터로 활용함.
  • 태그: 관찰가능성, 모니터링, 데이터기반판단

  • 🔄 [개선] 회복 리포트·테스트 자동화로 안정성 강화

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 장애 감지·복구 검증을 자동화함으로써 운영 안정성을 높임.
  • 태그: 테스트자동화, 운영안정성, 복구

  • 📚 [교훈] 응답 통계 누적은 운영 의사결정의 핵심 자원

  • 총 호출·프롬프트/응답 총량·에러 수 같은 지표를 정기적으로 집계하니 성능 이슈·비용 추세·모델 교체 필요성 판단 근거가 됨 — 지표 수집을 소홀히 하면 의사결정이 추측에 의존함.
  • 태그: 지표수집, 운영지표, 의사결정근거

2026-03-19

  • 🔧 [해결] 복잡한 모델 요구는 체리픽으로 부분 적용
  • 전체 OMC 도입은 도메인 부적합할 때 불필요하다고 판단하고, 필요한 기능 3가지만 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 구현하여 비용과 복잡도를 줄임.
  • 태그: 모델배치, 비용절감, 체리픽

  • 🔧 [해결] 역할별 모델 라우팅으로 책임 분리

  • 3단계 모델 라우팅(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)을 도입해 작업 성격에 맞는 모델/에이전트를 매핑함으로써 효율성과 응답 속도를 향상시킴.
  • 태그: 모델라우팅, 아키텍처, 성능

  • ⚖️ [판단] 도입 여부는 도메인 적합성으로 결정

  • 새 시스템 전체 도입 대신 도메인 적합성을 기준으로 부분 적용 여부를 결정(코드 개발 전문이면 OMC 전체 도입 불필요), 불필요한 전체 도입을 피함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 프롬프트·응답 비율 관찰로 비용·효율 가늠

  • 세션별 프롬프트 총량과 응답 총량, 호출 수·성공률 등 지표를 기록해 모델별 비용·레이턴시·성능을 비교하는 표준 관찰 지표로 활용함.
  • 태그: 측정, 모니터링, 비용관리

  • 🔄 [개선] 에이전트 확장 시 역할을 명확히 분화

  • 작업 증가에 따라 에이전트를 8→12로 확장하고 새로운 책임(analyst, report-writer, pipeline-debugger-deep 등)을 추가해 병렬성과 전문성을 확보함.
  • 태그: 운영개선, 스케일링, 역할분화

  • 📚 [교훈] 공식 문서와 로컬 확인의 순차 검증 필요

  • 초기에는 공개 여부를 불확정으로 기록했다가 다시 공식 문서에서 확인하여 정정함. 외부 문서·로컬 지원 여부는 빠르게 교차검증해야 함.
  • 태그: 검증절차, 실수교정

  • 🔄 [개선] 복구·리포트 자동화로 반복 작업 축소

  • recovery 리포트 자동화 스크립트와 recovery_collector 테스트를 작성해 수동 리포트/테스트 반복을 자동화함으로써 신뢰도와 개발 속도를 올림.
  • 태그: 자동화, 테스트

  • 💡 [발견] 모델별 성능 차이는 호출·레이턴시 통계로 드러남

  • 같은 세션에서 모델별 호출 수와 평균 레이턴시가 크게 달라서 작업 분배(심층 작업은 레이턴시 높음 등)를 설계할 근거가 됨.
  • 태그: 성능관찰, 모델선택

2026-03-19

  • 🔧 [해결] 체리픽으로 복잡한 도입 대신 핵심만 적용
  • 전체 OMC 도입은 도메인 불일치로 비효율적이라고 판단하고, 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지만 선택적으로 구현해 문제를 해결함. 복잡한 전면 도입 대신 작은 우선순위별 기능 체리픽을 적용하는 방식.
  • 태그: 우선순위, 단계적도입, 리스크회피

  • 🔧 [해결] 모델 역할별 라우팅으로 작업 분담

  • 세분화된 모델 라우팅(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)을 도입해 각 모델의 강점을 살려 요청을 라우팅함으로써 응답 품질과 처리량을 최적화함.
  • 태그: 모델라우팅, 역할분담, 성능최적화

  • ⚖️ [판단] 도입 여부는 도메인 적합성으로 결정

  • 기능이나 시스템 전체 도입 여부를 결정할 때 '우리의 도메인에 맞는가'를 우선 기준으로 삼아 불필요한 전면 도입을 피함(예: OMC 전체 도입 불필요 결론).
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인하여 로컬 환경에서 모델 전환 가능성을 확보함.
  • 태그: 툴기능, 운영유연성

  • 🔄 [개선] 자동화 스크립트·테스트 병행으로 회복력 강화

  • recovery 리포트 자동화와 recovery_collector 유닛/통합 테스트를 병행 작성하여 장애 복구 워크플로우를 자동화하고 검증 가능하게 개선함.
  • 태그: 자동화, 테스트, 복구

  • 💡 [발견] LLM 호출 통계로 성능·안정성 추적

  • 세션별 LLM 호출 수, 성공률, 프롬프트·응답 총량, 모델별 평균 레이턴시를 수집해 어떤 모델이 비용·성능에서 유리한지 파악함(예: sonnet 레이턴시 낮음).
  • 태그: 관찰, 모니터링, 성능지표

  • 📚 [교훈] 부분 정보 기반 판단은 정정 가능성 있음

  • 08:14에 gpt-5.4 mini 공개 여부 확인이 불확실했다가 08:16에 공식 문서로 정정한 사례에서, 초기 비확인 결론은 빠르게 정정·기록할 수 있는 절차가 필요함. 즉, 불확실할 땐 '미확인' 표기와 빠른 재검증 루프가 중요함.
  • 태그: 의사결정, 검증, 기록습관

  • 📚 [교훈] 프롬프트·응답 로그는 문제 찾기와 학습에 필수

  • 프롬프트 총량과 응답 총량, 에러 수 등을 지속적으로 기록함으로써 실패 원인 추적, 비용 분석, 최적화 포인트 도출이 쉬워짐. 로그 기록을 습관화할 것.
  • 태그: 로그, 운영모니터링, 지속개선

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 체리픽으로 해결
  • 전체 OMC 도입이 도메인과 맞지 않을 때 전체 적용 대신 모델별로 적용할 세 가지 기능(에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 적용하여 비용과 복잡도를 줄임.
  • 태그: 범위축소, 실용주의, OMC

  • 🔧 [해결] 모델 역할을 계층화해 라우팅 적용

  • 작업 성격에 따라 모델 그룹을 나눔(심층 판단: Opus, 분석·디버깅: Sonnet, 빠른 실행: Haiku)으로 3단계 라우팅을 적용해 각 모델의 강점에 맞게 요청 분배.
  • 태그: 모델라우팅, 역할분배, 성능최적화

  • ⚖️ [판단] 모든 기능을 한꺼번에 도입하지 말고 도메인 적합성으로 판단

  • 새 기술·방법론 도입 시 도메인 적합성을 우선 판단해 전체 도입은 자제하고, 도메인에 맞는 부분만 선별적으로 채택하도록 결정함.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 프롬프트·응답 볼륨은 모델별 성능 지표와 상관관계 있음

  • 세션 통계에서 프롬프트 총량·응답량·호출수와 모델별 평균 레이턴시/성공률을 함께 관찰하면 어느 모델이 대화량·지연에 유리한지 파악 가능함.
  • 태그: 계측, 성능관측

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 개선

  • 단순 수 증가 대신 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 추가해 기능별 책임을 분리하여 확장성과 유지보수성 개선.
  • 태그: 조직화, 에이전트설계

  • 📚 [교훈] 초기 확인 없이 문서 결과를 바로 신뢰하지 말 것

  • Codex 출시 여부 관련해서 처음에는 공개 확인 불가로 기록했다가 다시 확인해 정정함 — 외부 문서·공식 소스는 반복 확인 후 기록해야 함.
  • 태그: 검증, 문서확인

  • 🔧 [해결] 자동화 우선순위는 핵심 리포트·테스트부터

  • recovery 리포트 자동화 스크립트 작성→unit/integration 테스트 작성 순으로 진행해 자동화의 가시성과 안정성을 먼저 확보함.
  • 태그: 자동화, 테스트우선

  • 💡 [발견] 모델별 실패 비율이 특정 모델에 편중될 수 있음

  • 세션별 에러 통계에서 일부 모델(gpt-5-mini, qwen2.5:7b, openai-codex/gpt-5.4)이 0% 성공률을 보이며 호출이 있으나 실패했음을 확인 — 모델별 안정성 편차 존재.
  • 태그: 신뢰성, 모델관찰

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 분리 구현
  • 전체 OMC 도입이 불필요할 때 도메인에 맞는 핵심 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 비용과 리스크를 줄임.
  • 태그: 리스크관리, 단계적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 결정

  • 심층 판단·분석·빠른 실행 등 역할에 따라 Opus/Sonnet/Haiku로 3단계 라우팅해 작업 성격에 맞는 모델을 배정함—성능과 지연, 작업 성격을 기준으로 판단.
  • 태그: 모델선택, 운영정책

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 혹은 config.toml의 model 키로 모델을 변경할 수 있어 로컬 환경에서 모델 전환이 가능함을 확인함.
  • 태그: 툴특성, 운영

  • 🔄 [개선] 에이전트 스케일 업은 기능별 세분화

  • 기존 8개 에이전트를 12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 분리함으로써 책임과 기능을 명확히 하고 병렬 처리 효율을 높임.
  • 태그: 조직구조, 성능향상

  • 🔧 [해결] 복구 리포트 자동화로 반복작업 제거

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 수동 리포트 작성과 검증 비용을 줄임.
  • 태그: 자동화, 테스트

  • 💡 [발견] 모델별 레이턴시와 호출패턴 차이

  • 같은 작업군에서 모델별 평균 레이턴시가 크게 달라(예: gpt-5-mini 수백~만 ms, sonnet 수천 ms) 라우팅·비용·성능 최적화에 영향이 있음.
  • 태그: 성능관측, 모니터링

  • 📚 [교훈] 초기 판단 오류는 공식 문서 재검증으로 정정

  • gpt-5.4-mini 공개 여부를 처음에 확인 불가로 기록했다가 공식 Models 문서 재확인으로 정정한 사례—중요 의사결정 전 공식 출처 재검증 필수.
  • 태그: 검증절차, 문서확인

  • 🔧 [해결] 사용자 불만(종목 소개)은 섹터 맵으로 응답

  • 특정 종목 문의에 대해 관련 섹터 전체와 대표 종목·핵심 포인트를 정리한 맵(방산·에너지·금·사이버보안·비료 등)으로 답변해 누락 불만을 해소함.
  • 태그: 고객응대, 정보구성

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 체리픽으로 핵심만 도입
  • OMC 전체 도입이 도메인과 맞지 않을 경우 전체 적용 대신 코드 개발에 맞는 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별 적용해 리스크와 작업량을 줄임
  • 태그: 적용범위, 리스크관리

  • 🔧 [해결] 모델별 역할 분리로 라우팅 최적화

  • 에이전트를 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)으로 분리하여 각 모델 특성에 맞게 요청을 라우팅함으로써 성능과 비용을 균형시킴
  • 태그: 아키텍처, 모델라우팅

  • ⚖️ [판단] A vs B 비교는 도메인 적합성으로 결정

  • 기능(또는 툴) 전체 적용(A)과 부분 체리픽(B) 중 선택할 때, '도메인 적합성'을 우선 기준으로 삼아 불필요한 확장을 피함
  • 태그: 의사결정기준

  • 💡 [발견] 프롬프트·응답 볼륨과 모델별 레이턴시 차이 관찰

  • 총 프롬프트·응답량, 호출 수에 따라 모델별 평균 레이턴시가 상이하게 나타나며(예: sonnet가 낮은 레이턴시), 작업 유형에 따라 모델 선택 영향이 큼
  • 태그: 계측, 성능모니터링

  • 🔄 [개선] 복구 리포트·유닛 테스트 자동화로 신뢰성 강화

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 추가로 장애 대응 절차를 코드로 자동화하여 재현성과 검증 가능성을 높임
  • 태그: 테스트, 자동화

  • 📚 [교훈] 초기 정보 불확실성은 빠른 확인·정정 루프 필요

  • 08:14에 gpt-5.4 mini 공개 불가 판단 후 08:16에 문서 확인으로 정정된 사례처럼, 외부 문서·공식 소스 확인 절차를 빠르게 돌려 잘못된 판단을 줄여야 함
  • 태그: 검증, 운영절차

  • 🔧 [해결] 체계적 에이전트 확장 시 역할 추가 기준화

  • 에이전트 수를 확장할 때(8→12) 단순 증가가 아니라 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 명확히 정의해 중복을 줄이고 책임을 분산함
  • 태그: 조직화, 스케일링

  • 💡 [발견] 시스템 로그로 의사결정과 작업 내역을 연결하면 추후 재현 쉬움

  • 의사결정 로그(타임스탬프+결정 사유)와 수정/생성 파일 목록을 함께 남기면 어떤 코드가 왜 바뀌었는지 추적·검증하기 쉬워짐
  • 태그: 감사, 운영

  • ⚖️ [판단] 모델 변경 지원은 CLI 및 config 우선 확인

  • Codex의 모델 오버라이드 가능 여부는 CLI 옵션(-m/--model)과 config.toml의 model 키로 먼저 확인하고, 공식 문서 교차검증으로 최종 판단함
  • 태그: 검증절차, 도구사용

  • 📚 [교훈] 프롬프트 호출 증가는 모니터링·비용 관리 필요

  • 세션별 총 호출 수와 프롬프트 총량이 급증하면 성공률·에러·지연을 정기 점검하고 비용·성능 트레이드오프로 정책을 세워야 함
  • 태그: 운영모니터링, 비용관리

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때는 체리픽 3가지만 도입
  • OMC 전체 도입이 도메인과 맞지 않으면 전면 적용 대신 핵심 가치가 높은 기능 3가지를 선별(cherry-pick)해 구현한다. 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction.
  • 태그: 적용범위, 릴스크리닝, 우선순위

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해 결정

  • 모델 라우팅을 선택할 때 '심층 판단', '분석·디버깅', '빠른 실행' 같은 역할 기준으로 모델/에이전트를 나누어 Opus/Sonnet/Haiku처럼 라우팅 전략을 결정한다.
  • 태그: 모델선택, 역할기반, 성능운영

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 모델 변경이 가능함을 확인했다. 따라서 로컬 환경에서 빠르게 모델을 전환해 실험할 수 있다.
  • 태그: 도구기능, 운영유연성

  • 💡 [발견] 공식 문서 상태는 시간에 따라 변동

  • 같은 날 짧은 시간 간격으로 'gpt-5.4 mini 공개 여부'의 판단이 정정되었다. 문서 확인 결과가 바뀔 수 있으므로 중요한 결정 전엔 다시 확인하는 절차가 필요하다.
  • 태그: 문서신뢰도, 재확인

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 필요에 따라 에이전트 수를 늘려(예: 8→12) 기능을 세분화하면 특정 작업(분석, 리포트 작성, 디버깅 등)을 전담시켜 병렬 처리와 책임 분리가 가능하다.
  • 태그: 아키텍처, 스케일링

  • 🔧 [해결] 복구 리포트 자동화 → 유닛/통합 테스트 병행

  • recovery 관련 리포트 자동화 스크립트를 만들고 동시에 recovery_collector 유닛·통합 테스트를 작성해 자동화 신뢰성을 확보한다. 자동화 + 테스트 병행 패턴.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 프롬프트·호출 통계는 운영 의사결정 근거

  • LLM 호출 수, 성공률, 프롬프트·응답 총량 같은 지표를 주기적으로 모니터링하면 모델 배치, 재시도 정책, 비용-성능 판단에 실무적 근거를 제공한다.
  • 태그: 관찰지표, 운영모니터링

  • 📚 [교훈] 초기 검색·응답 불일치 발생 시 정정 로그 남기기

  • 08:14에 '공개 확인 불가' 판단 후 08:16에 정정된 사례처럼, 초기 판단이 바뀌면 정정 시간을 포함한 의사결정 로그를 남겨 추적성과 책임을 확보한다.
  • 태그: 운영절차, 투명성

  • 💡 [발견] 전쟁·지정학 이벤트는 섹터별 투자 수혜를 명확히 연결

  • 대화 로그에서 전쟁 관련 사건이 방산·에너지·금·사이버보안·해운·비료 등 특정 섹터 수혜로 직접 연결되어 분석되었다. 이벤트→섹터 매핑을 정책화하면 빠른 대응 리포트 작성에 유리하다.
  • 태그: 도메인지식, 이벤트매핑

2026-03-19

  • 🔧 [해결] 모델별 역할 분리로 성능·응답 최적화
  • 복합 작업을 하나의 모델에 몰아주는 대신 Opus/Sonnet/Haiku처럼 역할(심층 판단·분석·빠른 실행)로 라우팅하여 각 모델의 강점을 살리고 호출 비용과 지연을 줄임. 예: 3단계 모델 라우팅 도입으로 에이전트별 작업 성격에 맞게 분배함.
  • 태그: 모델라우팅, 성능최적화, 아키텍처

  • 🔧 [해결] 체리픽으로 복잡한 시스템 도입 비용 줄이기

  • 전체 OMC 도입 대신 도메인에 맞는 핵심 기능 3가지만 선별(cherry-pick)해 적용함으로써 개발 부담을 낮추고 ROI를 빠르게 확보함.
  • 태그: 의사결정, 범위절제

  • ⚖️ [판단] 도메인 적합성 기준으로 도입 여부 결정

  • 새 시스템(예: OMC)을 도입할 때 '도메인 적합성'을 우선 판단 기준으로 삼아, 핵심 도메인과 맞지 않으면 전체 도입을 배제하고 필요 기능만 선택하도록 결정함.
  • 태그: 판단기준, 도입전략

  • 💡 [발견] 모델별 레이턴시·성공률 편차 존재

  • 로그에서 모델별 호출 수·평균 레이턴시·성공률이 크게 다름(예: cliproxy/claude-sonnet 평균 레이턴시 짧음, 일부 모델은 호출 실패). 이를 통해 작업 유형에 맞는 모델 선택으로 전체 효율을 개선할 수 있음.
  • 태그: 관찰, 모델모니터링

  • 🔄 [개선] 프롬프트·응답 총량 모니터링으로 품질 관리

  • 세션별 프롬프트 총량·응답 총량·에러 수를 지속 수집해 품질·비용·에러 패턴을 추적하고, 과다 프롬프트 발생 시 프롬프트 축약 또는 사전 필터링(learner 패턴)을 도입함.
  • 태그: 운영개선, 계측

  • 🔧 [해결] preemptive-compaction으로 리소스 선정리

  • preemptive-compaction 훅을 추가해 세션·에이전트 실행 전 불필요 데이터나 컨텍스트를 사전 정리하여 호출 비용과 레이턴시를 낮추는 패턴을 적용함.
  • 태그: 성능최적화, 운영

  • 📚 [교훈] 빠른 가설→검증→수정 사이클의 중요성

  • Codex 출시 여부 관련 초기 확인(08:14) 후 정정(08:16)이 발생 — 불확실한 정보는 빠르게 확인하고 로그에 정정 기록을 남기면 혼선과 재작업을 줄일 수 있음.
  • 태그: 교훈, 운영절차

  • 💡 [발견] 도메인별 에이전트 확장으로 역할 명확화 가능

  • 에이전트 수를 8→12로 확장(analyst, report-writer, pipeline-debugger-deep 등 추가)하면서 각 에이전트의 책임과 전문화를 통해 병렬 처리와 전문성 향상이 관찰됨.
  • 태그: 조직설계, 에이전트운영

  • 🔄 [개선] 자동 리포트·테스트 자동화로 안정성 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 추가로 장애 대응과 회복 검증을 자동화하여 운영 신뢰도를 높임.
  • 태그: 테스트자동화, 운영신뢰성

  • 📚 [교훈] 세부 메트릭(호출·성공률·에러) 기록은 빠른 원인분석에 필수

  • 세션 로그에서 호출 수·성공률·에러를 꼼꼼히 남긴 덕분에 어떤 모델·시점에서 실패가 발생했는지 추적 가능 — 향후 문제 발생 시 초기 데이터 수집을 생략하면 진단이 지연됨.
  • 태그: 교훈, 모니터링

2026-03-19

  • 🔧 [해결] 체리픽 방식으로 필요 기능만 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 전면 도입 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 3가지를 선택해 구현한다. 전체 교체보다 부분 선택으로 비용·리스크를 줄임.
  • 태그: 체리픽, 리스크관리, 빠른실행

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분배

  • 심층 판단, 분석·디버깅, 빠른 실행 등 기능별로 Opus/Sonnet/Haiku처럼 모델(또는 에이전트 그룹)을 나눠 라우팅한다. 작업 특성(속도 vs 정확도)에 따라 모델을 배치하는 기준을 사용.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 모델별 레이턴시·성공률 모니터링은 운영 의사결정에 필수

  • 세션별·모델별 호출 수, 성공률, 평균 레이턴시 수치를 기록해 어떤 모델이 어떤 작업에 효율적인지 파악했다(예: sonnet 레이턴시 짧음). 운영·확장 결정에 활용됨.
  • 태그: 관측, 모니터링, 운영지표

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 단일 에이전트 그룹(8개)에서 전문화된 역할을 추가해(12개) 분석·리포트·디버깅 등 책임을 분리함으로써 작업 병렬화와 책임 분담을 개선했다.
  • 태그: 아키텍처, 스케일링, 전문화

  • 🔧 [해결] 로컬 툴 오버라이드로 모델 전환 확인

  • 공식 문서가 불확실할 때 로컬 Codex CLI의 -m/--model 옵션과 config.toml의 model 키로 모델 변경 가능 여부를 확인해 대체 모델 사용 경로를 확보했다.
  • 태그: 도구활용, 모델전환, 확인절차

  • 📚 [교훈] 초기 정보 확인 부정확 → 정정 로그 필수

  • 08:15에 공개 불가라고 판단했다가 08:16에 공식 문서에서 공개로 정정됨. 중요한 사실(문서·버전)은 확인 즉시 기록하고 정정 내역을 남겨 혼선 방지해야 한다.
  • 태그: 검증, 문서신뢰성, 기록

  • 💡 [발견] 프롬프트·응답 볼륨은 작업 비용의 직접 지표

  • 프롬프트 총량·응답 총량·호출 건수는 해당 작업의 LLM 비용·지연을 가늠하는 지표로, 자동화·최적화(예: preemptive-compaction) 필요성을 나타낸다.
  • 태그: 비용분석, 지표, 최적화

  • 🔄 [개선] recovery 리포트·테스트 자동화 도입

  • recovery 리포트 자동화 스크립트와 유닛/통합 테스트를 작성해 복구 프로세스의 반복성·신뢰성을 높이는 워크플로우로 전환 중이다.
  • 태그: 자동화, 테스트, 복구

  • ⚖️ [판단] 전면 도입보다 도메인 적합성 우선 판단

  • 새 시스템(OMC)을 전사 도입할지 결정할 때는 도메인 적합성을 기준으로 삼아, 전문성이 맞지 않으면 부분 체리픽 적용을 선택했다.
  • 태그: 의사결정기준, 도메인적합성, 체리픽

  • 📚 [교훈] 모델 실패(0% 성공) 사례는 기록해 원인 분석해야

  • 몇몇 모델(gpt-5-mini, qwen2.5:7b 등)이 성공률 0%로 기록된 사례가 있어 이런 실패 케이스는 호출 맥락·프롬프트·응답 로그를 저장해 재현·원인분석에 활용해야 한다.
  • 태그: 사후분석, 장애대응, 로그보존

2026-03-19

  • 🔧 [해결] 체리픽 방식으로 도메인-적합한 기능만 도입
  • 전체 OMC 도입 대신 도메인 적합성을 기준으로 핵심 3개(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 구현하여 불필요한 작업과 복잡도를 줄임
  • 태그: 모듈화, 우선순위, 리스크절감

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 배치

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 기능·지연요구에 따라 모델 라우팅을 결정함 — 지연·정확도·작업성격을 기준으로 판단
  • 태그: 모델선택, 성능기준

  • 💡 [발견] 프롬프트·응답 용량과 호출수는 운영 부담으로 직결

  • 세션별 프롬프트 총량·응답 총량·호출 수 통계를 통해 LLM 비용·레이턴시·성공률을 모니터링해야 함을 확인함
  • 태그: 모니터링, 비용관리

  • 🔄 [개선] 에이전트 확장 시 역할 세분화

  • 8개에서 12개로 에이전트를 늘려 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등 역할을 명확히 분리해 책임과 기능을 더 직관적으로 배분함
  • 태그: 조직화, 책임분리

  • 📚 [교훈] 문서와 현황이 바뀌면 즉시 정정 기록 남기기

  • gpt-5.4 mini 공개 여부가 초기 확인 불가 → 정정으로 공개 표기 확인이 나옴. 의사결정 근거는 문서 링크나 근거를 함께 남겨야 혼선 방지
  • 태그: 문서화, 검증

  • 🔧 [해결] 복구 리포트 자동화로 반복 테스트 표준화

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 수동 리포트·검증을 줄이고 재현 가능성 확보
  • 태그: 테스트자동화, 복구

  • 💡 [발견] 모델별 레이턴시 차이가 운영패턴에 영향

  • 같은 작업군에서도 모델별 평균 레이턴시(예: gpt-5-mini 14s vs sonnet 4–5s)가 달라 라우팅·타임아웃·사용자 경험 설계에 반영해야 함
  • 태그: 성능관찰, 설계영향

  • ⚖️ [판단] 모델 오버라이드는 로컬·글로벌 문서로 확인

  • Codex CLI의 모델 오버라이드 가능성은 로컬 도구(-m/--model, config.toml)에서 지원하는지와 공개 문서(공식 Models 문서)에서 확인해 결정함
  • 태그: 검증절차, 운영기준

2026-03-19

  • 🔧 [해결] 대상 기능만 체리픽해서 도입한다
  • 전체 OMC 도입이 도메인에 맞지 않을 때는 핵심 가치가 큰 기능 3가지만 선별해 구현한다(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 체리픽, 범위결정, 효율

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 설계한다

  • 심층 판단, 분석·디버깅, 빠른 실행 등 역할별로 모델 군을 나눠 라우팅(예: Opus/심층, Sonnet/분석, Haiku/빠른 실행)하면 효율과 응답 특성에 맞춘 처리 가능.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원을 제공한다

  • Codex CLI가 -m/--model과 config.toml의 model 키로 모델 변경을 지원함을 확인 — 로컬 환경에서 모델 전환이 가능해 운영 유연성이 생김.
  • 태그: 도구역량, 운영

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리

  • 기존 8개 에이전트에서 12개로 늘려 역할을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)하여 책임을 분리하고 특화 작업을 위임함으로써 유지보수와 병렬처리 개선.
  • 태그: 오케스트레이션, 스케일링

  • 🔧 [해결] 복구 리포트·테스트 자동화 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 작성을 병행해 재현성과 복구 검증을 동시에 확보한다.
  • 태그: 테스트, 복구, 자동화

  • 📚 [교훈] 초기 검증 없이 전면 도입하지 말 것

  • OMC를 전체 도입하려다 도메인 미적합 판단으로 축소 결정 — 새로운 플랫폼/패턴은 먼저 작은 범위에서 검증하고 확장해야 함.
  • 태그: 리스크관리, 검증

  • 💡 [발견] LLM 호출 통계는 모델별 성능 편차를 드러낸다

  • 동일 작업군에서 모델마다 호출 수·레이턴시·성공률 차이가 뚜렷(예: cliproxy/claude-sonnet-4-6이 저지연, github-copilot/gpt-5-mini는 레이턴시 큼) — 라우팅/캐파 계획에 사용 가능.
  • 태그: 측정, 성능모니터링

2026-03-19

  • 🔧 [해결] 특정 기능·개념 전체 도입 대신 체리픽으로 핵심만 선택
  • OMC 전면 도입이 도메인에 맞지 않으면 전체 적용을 포기하고, 도입 가능한 하위 항목 3가지를 골라(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 필요한 효과만 취함으로써 작업 범위를 줄이고 효율을 유지한다.
  • 태그: 범위절제, 우선순위, 설계

  • ⚖️ [판단] 모델 라우팅은 역할(심층 판단·분석·빠른 실행) 기반으로 배치

  • 에이전트/모델을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할 기준으로 라우팅하면 각 모델의 강점을 살려 작업을 분배할 수 있다는 판단 기준을 적용함.
  • 태그: 모델선택, 역할기반, 아키텍처

  • 💡 [발견] 로컬 Codex CLI는 모델 오버라이드와 설정 파일로 모델 변경 지원

  • 공식 문서 확인 과정에서 Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 로컬에서 모델을 변경할 수 있음이 확인됨 — 로컬 환경에서 빠르게 모델 전환 시험 가능.
  • 태그: 도구능력, 환경설정

  • 🔄 [개선] 에이전트 확장 시 역할 세분화로 처리량과 전문성 확보

  • 기존 8개에서 12개로 에이전트를 늘리고 신규 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)를 추가해 책임을 세분화함으로써 특정 작업(리포트 작성·심층 디버깅·크론 진단)을 전문적으로 처리하도록 워크플로우를 개선함.
  • 태그: 팀구성, 스케일링, 전문화

  • 📚 [교훈] 문서·공식 확인을 거쳐야 결론을 바꿀 수 있다

  • 08:14에 gpt-5.4 mini 공개 여부 불확실로 기록했다가 08:16에 공식 문서 확인으로 정정 — 초기 불확실성에 바로 결론을 내리지 말고 공식 출처로 검증해야 함을 재확인함.
  • 태그: 검증, 정보품질

  • 🔧 [해결] 복구·리포트 자동화→유닛/통합 테스트로 신뢰성 확보

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector의 유닛/통합 테스트를 추가하여 자동화된 리포트의 정확성과 안정성을 코드 테스트로 검증하는 워크플로우를 적용함.
  • 태그: 자동화, 테스트, 신뢰성

  • 💡 [발견] 모델별 호출·성공률·레이턴시 모니터링으로 병목·비효율 포착

  • LLM 호출 통계를 모델별로 집계(호출수·성공률·평균 레이턴시)해 특정 모델의 레이턴시나 에러 패턴을 파악하면 라우팅·캐싱·재시도 정책 개선 포인트를 찾을 수 있음.
  • 태그: 모니터링, 관찰, 성능

  • 📚 [교훈] 전면 적용보다 도메인 적합성 우선

  • OMC를 전체 도입하려다 도메인 부적합을 확인하고 부분 도입으로 전환 — 새로운 프레임워크나 대규모 변경은 도메인 적합성 검증을 먼저 해야 함.
  • 태그: 도메인검증, 리스크회피

2026-03-19

  • 🔧 [해결] 도메인 불일치인 큰 프레임은 체리픽으로 해결
  • OMC 전체 도입은 도메인 불일치로 불필요하다고 판단하고, 코드 개발에 맞는 3가지(에이전트 분리·learner 패턴 추출·preemptive-compaction)만 선택해 적용함으로써 과도한 범위 확대를 피함.
  • 태그: 범위관리, 체리픽, 실행우선

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 결정

  • 심층 판단/분석·디버깅/빠른 실행 같은 역할 기준으로 Opus/Sonnet/Haiku 로 모델을 3단계 라우팅하여 각 모델에 적합한 작업을 배정함 — 역할(목적) 기준으로 모델 선택.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] Codex CLI는 로컬에서 모델 오버라이드 지원

  • Codex는 -m/--model 플래그와 config.toml의 model 키로 로컬에서 모델을 변경할 수 있음(문서 확인으로 검증됨).
  • 태그: 도구기능, 검증

  • 💡 [발견] 공식 문서와 로컬 확인은 시차로 정정 발생 가능

  • 초기에 gpt-5.4 mini 공개 확인 불가로 기록했다가, 추가 확인으로 공식 문서에 공개 표기된 것을 정정함 — 문서 확인 시 타임스탬프와 재검증이 필요함.
  • 태그: 검증절차, 문서확인

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 에이전트 수를 8→12로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임 영역을 더 작고 명확하게 분리하여 병렬 처리와 유지보수를 개선함.
  • 태그: 아키텍처, 작업분할, 확장성

  • 🔧 [해결] 복구 리포트 자동화 + 유닛/통합 테스트로 신뢰성 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector의 유닛/통합 테스트를 병행하여 자동화된 복구 흐름의 검증 가능성과 신뢰성을 동시에 확보함.
  • 태그: 자동화, 테스트, 신뢰성

  • 📚 [교훈] 초기 단정은 정정 비용 초래 — 재검증 루틴 필요

  • 08:14에 gpt-5.4 mini 공개 확인 불가로 기록했다가 08:16에 정정함. 초기사전확인 실패는 로그·의사결정의 혼선을 만들므로 문서 확인 시 재검증(다중 출처·타임스탬프)을 표준화해야 함.
  • 태그: 교훈, 검증절차, 로깅

  • 💡 [발견] LLM 호출 통계로 성능·비용·신뢰성 추적 가능

  • 세션별·모델별 호출 수·성공률·레이턴시·프롬프트·응답량을 수집하여 어떤 모델이 비용대비 성능·신뢰성에서 유리한지 판단할 근거를 제공함.
  • 태그: 관찰, 모니터링, 운영지표

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심만 먼저 도입
  • 전체 OMC 도입이 도메인과 맞지 않을 때는 전부 도입하지 않고, 코드 개발에 유용한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 우선 구현한다. 빠른 가치 확보와 리스크 축소에 유리하다.
  • 태그: 우선순위, 점진도입, 리스크관리

  • 🔧 [해결] 모델 역할별 라우팅으로 작업 분담

  • 작업 특성에 따라 모델/에이전트를 분리(예: Opus=심층 판단, Sonnet=분석·디버깅, Haiku=빠른 실행)해 호출 부담과 레이턴시를 최적화한다. 서로 다른 모델을 역할별로 배치해 효율성·성능을 높임.
  • 태그: 모델라우팅, 성능최적화, 아키텍처

  • ⚖️ [판단] 전체 적용 vs 체리픽 판단 기준: 도메인 적합성

  • 새 방식 전체 적용 여부는 '도메인 적합성'을 기준으로 판단한다. 도메인과 맞지 않으면 전체 도입 대신 핵심 기능만 체리픽해서 적용한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출 패턴 차이 관찰

  • 로그에서 모델별 호출수와 평균 레이턴시가 상이하게 나타났다(github-copilot 상대적 고레이턴시, claude-sonnet 낮은 레이턴시). 작업 유형에 따라 적합한 모델 선택이 비용·응답속도에 영향.
  • 태그: 관찰, 모델선택, 계측

  • 🔄 [개선] 프롬프트·응답량 계측으로 효율 모니터링

  • 프롬프트 총량·응답 총량·성공률·에러 수 같은 지표를 주기적으로 기록해 LLM 비용·효율을 추적하고, 문제 발생 시 원인을 빠르게 좁힌다.
  • 태그: 모니터링, 운영계측, 비용관리

  • 📚 [교훈] 정정 기록은 즉시 남겨 혼선 방지

  • 초기 발표(08:15)와 정정(08:16)이 연달아 발생한 사례처럼, 문서화·정정 사항은 즉시 로그에 남겨 정보 불일치와 혼선을 줄여야 한다.
  • 태그: 문서화, 커뮤니케이션

  • 📚 [교훈] 모델 오버라이드 옵션 확인은 현장검증으로 보완

  • Codex CLI의 -m/--model 및 config.toml 설정 지원은 문서 확인 후 로컬에서 직접 검증해 확정했다. 외부 문서 정보는 로컬 검증으로 보완해야 한다.
  • 태그: 검증, 운영절차

2026-03-19

  • 🔧 [해결] 체리픽으로 불필요한 대규모 도입 회피
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체 적용 대신 핵심 3가지를 선별(cherry-pick)해 구현하여 비용과 복잡도를 줄임(예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction).
  • 태그: 범위관리, 비용절감

  • 🔧 [해결] 모델 역할 분리로 라우팅 단순화

  • 심층 판단·분석·빠른 실행 등 역할별로 모델(예: Opus/Sonnet/Haiku)을 나눠 3단계 라우팅을 적용하면 각 모델에 맞는 작업을 고정시켜 효율과 응답 품질을 높임.
  • 태그: 아키텍처, 모델라우팅

  • ⚖️ [판단] 전면 도입 vs 체리픽 결정 기준 — 도메인 적합성

  • 새 기술/방법 도입 시 '도메인 적합성'을 우선 고려한다. 도메인과 맞지 않으면 전면 도입을 피하고 핵심 사례만 선별 적용한다.
  • 태그: 의사결정기준, 도메인적합성

  • 💡 [발견] 모델별 레이턴시·호출 특성 차이 관찰

  • 동일 워크로드에서 모델별 호출 수, 성공률, 평균 레이턴시가 크게 달라 운영·스케줄링 정책에 영향을 줌(예: cliproxy/claude-sonnet-4-6이 상대적으로 낮은 레이턴시).
  • 태그: 계측, 모니터링

  • 🔄 [개선] 로컬 툴의 모델 오버라이드 지원 활용

  • Codex CLI의 -m/--model 및 config.toml 설정을 이용해 로컬에서 모델 변경을 지원함으로써 공식 공개 시점과 무관하게 실험·전환이 가능하도록 워크플로우를 개선함.
  • 태그: 운영유연성, 툴활용

  • 🔧 [해결] preemptive-compaction으로 프롬프트 비용 관리

  • 프롬프트 총량이 커질 때 사전 압축(preemptive-compaction) 훅을 도입해 프롬프트 크기와 호출 비용을 줄이고 LLM 응답 효율을 높임.
  • 태그: 비용관리, 프롬프트최적화

  • 📚 [교훈] 초기 확인 부족으로 인한 정정 필요성

  • 같은 날 모델 공개 여부 관련 상반된 기록(08:14 확인 불가 → 08:16 공개 확인)이 발생. 외부 문서·공식 소스 재확인을 절차화해야 함.
  • 태그: 검증절차, 문서확인

  • 💡 [발견] 에러·성공률 로그로 안정성 판단 가능

  • 세션별 LLM 호출 통계(총 호출, 성공률, 에러 수)를 통해 특정 모델이나 시점의 안정성 문제를 식별하고 테스트·개선 우선순위를 정할 수 있음.
  • 태그: 운영관찰, 우선순위결정

2026-03-19

  • 🔧 [해결] 대규모 기능 불필요할 때 체리픽으로 핵심만 구현
  • OMC 전체 도입이 도메인에 맞지 않을 때 전체 적용 대신 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 같은 핵심 3가지만 골라 구현하여 비용과 복잡도 절감
  • 태그: 범위관리, 단계적도입, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 기준으로 분리

  • 심층 판단은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 모델별로 역할(판단/분석/실행)을 기준으로 라우팅해 성능·지연·정확도 균형을 맞춤
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 플래그와 config.toml의 model 키로 로컬에서 모델 변경이 가능함을 확인 — 즉 문서 기준과 로컬 설정이 다를 수 있음
  • 태그: 도구특성, 설정관리

  • 💡 [발견] 공식 문서와 초기 확인 결과가 달라질 수 있음

  • 08:14에 gpt-5.4-mini 공개 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기 확인 — 빠른 정정 절차가 필요함
  • 태그: 정보검증, 업데이트

  • 🔄 [개선] 에이전트 확장은 목적에 맞게 세분화

  • 기존 8개에서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가해 역할을 더 좁혀 책임 분산과 디버깅 전문성을 높임
  • 태그: 조직구조, 확장전략

  • 🔧 [해결] 자동화 스크립트 → 유닛/통합 테스트 순으로 개발

  • recovery 리포트 자동화 스크립트 작성 후 바로 recovery_collector 유닛/통합 테스트를 작성하여 자동화 신뢰성 확보
  • 태그: 테스트우선, 자동화

  • 📚 [교훈] 프롬프트/호출 통계로 성능·비용 인사이트 확보

  • 총 호출·프롬프트/응답 총량·모델별 평균 레이턴시 등 통계를 꾸준히 기록하면 어떤 모델에 호출이 집중되는지·병목은 어디인지 파악돼 최적화 방향이 생김
  • 태그: 관찰학습, 운영지표

  • 📚 [교훈] 정보 정정 시점과 로그에 정직하게 남기기

  • 초기 확인에서 잘못 기록한 내용(모델 공개 여부)을 곧바로 정정하고 로그에 남긴 점은 신뢰성 유지에 도움이 됨 — 정정 절차를 워크플로우화할 것
  • 태그: 투명성, 운영절차

  • ⚖️ [판단] 도메인 적합성으로 기술 도입 범위 결정

  • 도메인이 코드 개발 전문이 아니라면 OMC 전체 도입은 과도하므로 도메인 적합성을 우선 판단 기준으로 삼아 도입 범위를 결정
  • 태그: 도입판단, 정책

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 전체 도입 대신 체리픽 3가지만 적용
  • OMC가 전체 도입에 적합하지 않다고 판단되면 전체 적용을 강행하지 않고, 도메인에 맞는 핵심 기능 3가지를 골라(cherry-pick) 우선 구현해 효과와 비용을 검증한다.
  • 태그: 의사결정, 데이브리핑, 우선순위

  • 🔧 [해결] 모델별 역할 분리로 라우팅·성능 최적화

  • 작업을 심층 판단, 분석·디버깅, 빠른 실행 등 성격별로 모델(예: Opus/Sonnet/Haiku)로 분리해 라우팅하면 각 모델의 강점을 살려 처리 성능과 응답품질을 높일 수 있다.
  • 태그: 아키텍처, 모델라우팅, 성능

  • ⚖️ [판단] A vs B 비교 시 도메인 적합성으로 판단

  • 새 기법(A)와 기존 기법(B)을 비교할 때 기능의 기술적 우수성보다 '도메인 적합성'을 우선 판단 기준으로 삼아 도입 범위를 결정한다.
  • 태그: 의사결정, 우선순위

  • 💡 [발견] 프롬프트·응답 총량은 호출수·성공률 외에 중요한 품질 지표

  • 세션에서 호출 수, 성공률뿐 아니라 프롬프트 총량과 응답 총량을 함께 추적하면 비용·효율·품질(예: 레이턴시 대비 출력량)을 더 잘 이해할 수 있다.
  • 태그: 관찰, 메트릭

  • 🔄 [개선] preemptive-compaction 등 경량 훅으로 리소스 관리

  • 무거운 전체 리팩터 대신 사소한 훅(preemptive-compaction)을 추가해 실행 전에 리소스를 정리하면 시스템 부하를 줄이고 안정성을 개선할 수 있다.
  • 태그: 운영, 최적화

  • 🔧 [해결] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하고 recovery_collector에 유닛·통합 테스트를 추가해 복구 절차의 신뢰성을 높인다.
  • 태그: 테스트, 자동화, 복구

  • 📚 [교훈] 초기 정보 불확실성은 정정 로그로 보완하라

  • 08:14에 공개 불가로 기록했다가 08:16에 정정한 것처럼, 외부 문서나 공개 여부 확인이 불완전하면 빠르게 정정 기록을 남겨 혼선을 줄여야 한다.
  • 태그: 운영절차, 투명성

  • 💡 [발견] 시장 이벤트(전쟁 등)는 특정 섹터·종목에 명확한 수혜 패턴을 만듦

  • 대화 로그에서 전쟁·공급 차질 같은 외부 이벤트가 방산, 에너지, 금, 사이버보안, 해운, 비료 등 섹터별로 즉각적이고 일관된 수혜 패턴을 만들어 포트폴리오·추천에 적용할 수 있음이 관찰됨.
  • 태그: 시장분석, 도메인지식

2026-03-19

  • 🔧 [해결] 체리픽(선택적 도입)으로 복잡한 프레임워크 부담 줄이기
  • 전체 OMC 도입 대신 도메인과 맞는 핵심 기능 3가지를 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해서 우선 구현하여 비용과 복잡도를 낮춤
  • 태그: 범위절감, 우선순위, 단계적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리한다

  • 심층 판단→Opus, 분석·디버깅→Sonnet, 빠른 실행→Haiku처럼 모델을 역할(용도)별로 나눠 성능·지연·비용의 균형을 맞춤
  • 태그: 모델선택, 아키텍처, 성능최적화

  • 💡 [발견] 로컬 CLI는 모델 오버라이드 지원을 확인할 것

  • Codex CLI가 -m/--model 및 config.toml의 model 키로 모델 변경을 지원함을 확인하여 로컬 환경에서 모델 전환이 가능하다는 사실을 확인함
  • 태그: 툴능력, 운영환경, 모델관리

  • 🔄 [개선] 에이전트 늘리되 역할을 세분화해서 책임 분산

  • 에이전트 수를 8→12로 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 기능별 에이전트를 추가해 작업 분리와 전문화로 효율 개선
  • 태그: 조직구성, 책임분산, 에이전트설계

  • 🔧 [해결] 프롬프트/응답 통계로 호출 품질 모니터링

  • 총 호출·성공률·프롬프트·응답 총량·에러 수를 주기적으로 집계해 모델별 성능(호출수·레이턴시)을 비교하고 문제모델(에러·0%성공률)을 빠르게 식별
  • 태그: 모니터링, 지표, 운영

  • 📚 [교훈] 초기 결론은 공식 문서로 교차검증하라

  • gpt-5.4 mini 공개 여부가 처음에 불확실하게 기록됐다가 정정됨 — 외부 공식 문서 확인을 먼저 해 혼선과 재작업을 줄여야 함
  • 태그: 검증, 문서기반, 의사결정

  • 💡 [발견] 전쟁·지정학 이벤트는 섹터별 명확한 수혜 패턴을 만든다

  • 대화에서 방산·에너지·금·사이버보안·해운·비료 등 섹터가 전쟁 이슈로 뚜렷한 수익률 차이를 보였고, 특정 기업들이 직접적 수혜를 받는 패턴이 관찰됨(예: 무기 증산 요청→방산 기업 급등)
  • 태그: 도메인인사이트, 시장반응, 사건-영향

2026-03-19

  • 🔧 [해결] 체리픽으로 핵심 기능만 도입
  • OMC 전체 도입은 도메인 비적합으로 판단하여, 관련 기능 중 모델별 에이전트 분리 · learner 패턴 추출 · preemptive-compaction 등 핵심 3가지만 선택해 구현함 — 전체 도입 대신 비용·리스크가 낮은 핵심만 적용하는 방식.
  • 태그: 운영결정, 범위절제

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분류

  • 모델 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할과 태스크 특성으로 나눔 — 복잡도·지연민감도·정밀도 요구를 기준으로 모델 할당.
  • 태그: 모델선택, 라우팅기준

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml에서 -m/--model 또는 model 키로 로컬에서 모델을 변경할 수 있음 — 배포판 문서와 실제 CLI 동작을 교차검증해야 함.
  • 태그: 도구사용, 검증

  • 🔄 [개선] 복구 리포트 자동화→유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector에 대한 유닛/통합 테스트를 작성해 자동화의 신뢰성을 높임 — 자동화 작업시 즉시 테스트 추가하는 워크플로우 개선.
  • 태그: 테스트, 자동화

  • 💡 [발견] LLM 호출 통계로 모델 성능 비교 가능

  • 세션별 호출수·성공률·평균 레이턴시를 수집해 어떤 모델이 빠르고 안정적인지 판단 가능(예: sonnet 낮은 레이턴시, gpt-5-mini 호출 실패 발생) — 의사결정 데이터로 활용.
  • 태그: 모니터링, 성능지표

  • 📚 [교훈] 전체 도입 전 도메인 적합성 검토 필요

  • OMC를 무조건 전체 적용하려다 비도메인성 문제로 되돌림 — 새 시스템 도입 전 도메인 적합성(전문성·성능·비용)을 먼저 검증해야 함.
  • 태그: 거버넌스, 리스크관리

  • 🔧 [해결] 정보 정정·추가로 결정 업데이트

  • 초기에 gpt-5.4-mini 공개 여부가 불확실했으나 문서 확인으로 정정해 의사결정 기록을 업데이트함 — 불확실 정보는 확인 즉시 로그 정정 프로세스를 둠.
  • 태그: 정보관리, 의사결정기록

2026-03-19

  • 🔧 [해결] 복잡한 모델 기능은 체리픽으로 우선순위 지정하여 부분 도입
  • OMC 전체 도입 대신 도메인 적합성을 고려해 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 세가지를 선별해 먼저 구현함으로써 리스크와 작업량을 줄임.
  • 태그: 우선순위, 리스크관리, 점진도입

  • ⚖️ [판단] 모델 라우팅은 처리 성격에 따라 분리

  • 심층 판단 작업은 Opus, 분석·디버깅은 Sonnet, 빠른 실행은 Haiku처럼 작업 성격(심층 vs 분석 vs 빠른 실행)을 기준으로 모델/에이전트를 분리하는 규칙을 채택함.
  • 태그: 라우팅, 모델선정, 작업분류

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml의 model 키로 로컬에서 모델을 변경할 수 있음 — 공개 문서와 로컬 환경 차이를 검증해서 사용 가능 여부 결정 필요.
  • 태그: 도구능력, 검증

  • 🔄 [개선] 에이전트 확장은 역할 세분화로 처리량 향상

  • 에이전트 수를 8→12로 늘리면서 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)을 세분화해 병렬 작업과 전문성을 높임.
  • 태그: 확장, 세분화, 병렬처리

  • 🔧 [해결] 복구 리포트 자동화 → 유닛/통합 테스트 추가

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛·통합 테스트 작성으로 복구 파이프라인의 신뢰성을 확보하려는 접근.
  • 태그: 테스트, 자동화, 신뢰성

  • 📚 [교훈] 문서 초기 해석 오류는 빠른 정정으로 피해 최소화

  • gpt-5.4 mini 공개 여부를 두 번 기록(08:15 비확인 → 08:16 정정)한 사례에서 보듯, 외부 문서 확인이 불확실하면 즉시 검증·정정 프로세스를 두어 혼선과 잘못된 결정 확산을 막아야 함.
  • 태그: 검증, 의사소통, 교정

  • 💡 [발견] LLM 호출 통계로 모델 비용·성능 평가 가능

  • 세션별 호출수·성공률·프롬프트·응답량·레이턴시 데이터를 수집해 어떤 모델이 비용·속도·정확도에서 유리한지 판단하는 근거로 활용됨.
  • 태그: 모니터링, 성능지표, 의사결정근거

  • 🔄 [개선] 체리픽 방식으로 외부 기법 도입 시 도메인 적합성 검토 절차 추가

  • OMC 전체 도입을 피하고 도메인 적합성을 기준으로 핵심 기능만 선별해 적용한 흐름을 표준화하면 외부 기술 도입의 실패 위험을 줄일 수 있음.
  • 태그: 거버넌스, 도입절차, 체리픽

2026-03-19

  • 🔧 [해결] 큰 프레임 도입 대신 체리픽으로 핵심만 적용
  • OMC 전체 도입이 도메인과 맞지 않을 때 전체 적용을 포기하고, 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction 등 실용적 3가지만 선택해 적용함으로써 개발 비용과 복잡도를 줄였다.
  • 태그: 범위선정, 효율화, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할·지연성 기준으로 분리

  • 3단계 모델 라우팅(심층 판단: Opus / 분석·디버깅: Sonnet / 빠른 실행: Haiku)을 통해 작업 성격(심층 vs 분석 vs 빠른 실행)과 레이턴시를 기준으로 모델과 에이전트를 배치했다.
  • 태그: 모델선택, 성능기준, 아키텍처

  • 💡 [발견] 로컬 툴은 모델 오버라이드 지원

  • Codex CLI와 config.toml이 -m/--model 및 model 키를 통해 모델 오버라이드를 지원한다는 사실을 확인하여 로컬 환경에서 모델 전환이 가능함을 발견함.
  • 태그: 도구기능, 운영

  • 🔄 [개선] 사전압축(preemptive-compaction) 훅으로 프롬프트 비용 절감

  • preemptive-compaction 스크립트(hook)를 도입해 LLM 프롬프트 크기와 호출 비용을 줄이는 워크플로우를 추가함.
  • 태그: 비용절감, 프롬프트관리

  • 🔧 [해결] 에이전트 수평 확장으로 역할 분담

  • 필요 기능을 별도 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)로 분리해 에이전트 수를 늘리고 책임을 명확히 함으로써 병렬 처리와 유지보수성을 개선함.
  • 태그: 조직화, 확장성

  • 📚 [교훈] 공식 문서 확인 없이 결론 내리지 않기

  • 초기에 gpt-5.4 mini 공개 여부를 확인하지 못했다가 정정한 사례에서, 외부 공개 여부나 사양은 공식 문서를 먼저 확인해야 함을 학습함.
  • 태그: 검증절차, 리서치

  • 💡 [발견] LLM 호출 통계로 운영 결정 보조

  • 모델별 호출 수·성공률·평균 레이턴시 등 지표를 수집해 성능·비용·신뢰성 판단에 활용함(예: Sonnet이 낮은 레이턴시로 분석 작업 적합).
  • 태그: 모니터링, 메트릭기반결정

  • 🔄 [개선] 테스트·자동화 우선 도입

  • recovery 리포트 자동화 스크립트 작성 및 recovery_collector 유닛/통합 테스트를 바로 작성해 운영 준비와 회복력 강화를 우선시함.
  • 태그: 자동화, 테스트

  • 🔧 [해결] learner 패턴 추출로 재사용 가능한 지식 수집

  • session_learner.py 등으로 실행 중 나온 패턴을 자동 추출해 이후 에이전트 학습·재사용에 쓸 수 있게 구성함.
  • 태그: 학습파이프라인, 지식관리

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽으로 범위 축소
  • 전체 OMC 도입은 도메인 불일치로 비효율적이라 판단하고, 핵심 가치가 높은 3개 기능(model별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현함으로써 리스크와 개발비용을 줄였다.
  • 태그: 범위관리, 우선순위, 리스크감소

  • ⚖️ [판단] 모델 라우팅은 작업 성격별로 분리

  • 심층 판단, 분석·디버깅, 빠른 실행 같은 작업 성격에 따라 Opus/Sonnet/Haiku로 모델 라우팅을 나눠 성능·지연·정확도 요구를 각각 충족시키는 기준을 적용했다.
  • 태그: 모델선택, 성능트레이드오프

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml을 통해 로컬 환경에서 -m/--model 또는 model 키로 모델을 변경할 수 있음을 확인해 배포·테스트 유연성이 확보됨.
  • 태그: 도구제약, 운영유연성

  • 💡 [발견] 공식 문서 확인 후 의사결정 정정

  • 초기에는 gpt-5.4 mini 공개 여부를 확인하지 못했으나 공식 Models 문서에서 공개 표기가 있음을 찾아내어 이전 판단을 정정함 — 문서 기반 재검증의 중요성 확인.
  • 태그: 검증, 문서근거

  • 🔧 [해결] 에이전트 확장으로 역할 분담 세분화

  • 기존 에이전트를 8→12개로 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등을 추가함으로써 책임을 분리하고 각 워크로드에 특화된 에이전트로 성능·유지보수 효율을 개선했다.
  • 태그: 아키텍처, 분업

  • 🔄 [개선] preemptive-compaction 훅으로 사전 정리 자동화

  • preemptive-compaction 스크립트/후크를 도입해 런타임 이전에 불필요 상태를 정리하도록 하여 호출 품질과 응답 일관성을 높이는 워크플로우로 전환함.
  • 태그: 자동화, 운영안정성

  • 📚 [교훈] 프롬프트·모델 통계는 의사결정 근거로 사용

  • 세션별 LLM 호출 수, 성공률, 프롬프트·응답 총량 통계를 꾸준히 모니터링해 모델 선택·최적화와 에러 대응(예: 실패율이 높을 때 대체 모델 검토)에 활용해야 함.
  • 태그: 모니터링, 데이터기반

  • 📚 [교훈] 초기 결론은 공개 문서로 재확인하라

  • 모델 공개 여부 등 외부 사실에 기반한 결론은 공식 문서 확인 전까지는 확정하지 않아야 하며, 발견 시 즉시 의사결정 로그를 정정해 혼선을 줄여야 한다.
  • 태그: 검증절차, 의사결정투명성

2026-03-19

  • 🔧 [해결] 도메인 불일치 시 체리픽 방식으로 핵심만 도입
  • OMC 전체 도입이 도메인에 맞지 않을 때, 전체 적용 대신 모델별로 필요한 3가지(에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선별해 구현하여 비용과 복잡도를 낮춤.
  • 태그: 체리픽, 범위축소, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단 역할에는 Opus, 분석·디버깅에는 Sonnet, 빠른 실행에는 Haiku처럼 모델을 역할(심층/분석/빠른실행) 기준으로 라우팅해 성능·지연·비용 균형을 맞춤.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 로컬 Codex는 모델 오버라이드와 config를 지원함

  • Codex CLI가 -m/--model 플래그와 config.toml의 model 키를 통해 모델 변경을 허용한다는 사실을 확인해 배포·테스트 유연성이 높아짐.
  • 태그: 툴링, 설정, 유연성

  • 🔄 [개선] 에이전트 확장 시 기능별 세분화로 대응력 향상

  • 기존 8개에서 12개로 에이전트를 늘리며 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 기능을 분리해 책임을 작게 하고 전문성을 올림.
  • 태그: 아키텍처, 확장성, 책임분리

  • 🔧 [해결] 프롬프트/응답 통계 모니터링으로 호출 효율 판단

  • 총 호출·성공률·프롬프트 총량·응답 총량 같은 지표를 주기적으로 수집해서 어느 모델이 비용 대비 성능이 좋은지 판단하고 라우팅 정책에 반영함.
  • 태그: 모니터링, 메트릭, 비용관리

  • 💡 [발견] 모델별 평균 레이턴시 차이가 라우팅 기준이 됨

  • cliproxy/claude-sonnet-4-6은 레이턴시가 낮아 분석·디버깅에 적합하고 github-copilot/gpt-5-mini는 레이턴시가 높아 심층작업 위주로 배치하는 식의 연결고리를 확인.
  • 태그: 성능관찰, 레이턴시, 모델선택

  • 📚 [교훈] 공식 문서 확인은 반복 검증 필요

  • 08:14에 공개 여부 불확실로 판단했다가 08:16에 공식 문서에서 공개 표기를 확인한 것처럼 외부 정보는 즉시 단정하지 말고 추가 검증 루틴을 두어 정정 비용을 줄여야 함.
  • 태그: 검증, 외부자료, 신뢰성

  • 🔄 [개선] 작업 자동화 스크립트와 유닛 테스트 병행 개발

  • recovery 리포트 자동화 스크립트 작성 시작과 동시에 recovery_collector 유닛/통합 테스트를 작성하여 자동화 신뢰도와 회귀 방지를 동시에 확보함.
  • 태그: 테스트, 자동화, CI

  • 🔧 [해결] 전략적 섹터 맵으로 사용자 불만 대응

  • 사용자 질문(특정 종목 추천 누락)에 대해 섹터별 상승 이유·대표 종목을 맵으로 정리해 설명함으로써 개별 종목 누락에 대한 불만을 완화하고 신뢰를 회복함.
  • 태그: 사용자응대, 정보표현, 금융분석

  • 💡 [발견] 실세계 이벤트(정치·공격)가 원자재·비료·방산 섹터에 즉각적 영향

  • UAE 가스전 피격 → 황 공급 차질 → 인산비료 원료 부족으로 비료·농업 관련 종목들이 급등하는 연결고리를 확인, 이벤트→서플라이체인→섹터 임팩트 흐름을 문서화할 필요를 발견.
  • 태그: 因果관계, 서플라이체인, 시장임팩트

2026-03-19

  • 🔧 [해결] 체리픽으로 복잡한 도입 대신 핵심 기능만 선택
  • OMC 전체 도입이 도메인과 맞지 않을 때는 전체를 도입하지 않고, 도메인 적합한 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현해 시간과 리소스를 절약함.
  • 태그: 범위관리, 빠른승리, 리소스절약

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 구분

  • 심층 판단·분석·빠른 실행 등 역할에 따라 모델군(Opus/심층, Sonnet/분석·디버깅, Haiku/빠른 실행)으로 라우팅하여 각 모델의 강점을 활용하기로 결정함.
  • 태그: 모델선택, 역할기반라우팅

  • 💡 [발견] 프롬프트·응답 통계는 운영 의사결정 근거

  • 총 호출수·성공률·프롬프트·응답 총량·모델별 레이턴시 등 지표를 모니터링하면 어떤 모델에 부하가 있고 개선이 필요한지 판단할 수 있음.
  • 태그: 모니터링, 운영지표

  • 🔄 [개선] 로컬 도구의 모델 오버라이드 지원 확인 → 유연한 모델 전환

  • Codex CLI가 -m/--model 및 config.toml로 모델 오버라이드를 지원함을 확인하여, 외부 공개 여부에 흔들리지 않고 로컬에서 신속히 모델을 변경·테스트할 수 있게 함.
  • 태그: 도구설정, 유연성

  • 🔧 [해결] 자동화 스크립트+단위테스트로 리커버리 신뢰도 향상

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성해 장애 대응 리포트 생성과 검증을 자동화함으로써 신뢰도를 높임.
  • 태그: 자동화, 테스트

  • 📚 [교훈] 문서·공식 확인은 반복 검증 필요

  • 초기에 gpt-5.4 mini 공개 여부를 확인 못했다가 정정한 사례에서 보듯, 외부 문서(공식 모델 문서)는 반복 확인하고 로깅해야 혼선이 줄어듦.
  • 태그: 검증절차, 문서중요성

  • 💡 [발견] 전쟁·지정학 이벤트가 섹터별 주가에 뚜렷한 영향

  • 대화에서 전쟁 사태가 방산·에너지·금·사이버보안·해운·비료 등 특정 섹터를 강하게 올린 것으로 관찰되어 이벤트 기반 섹터 맵을 만들어 추천 근거로 사용할 수 있음.
  • 태그: 도메인인사이트, 이벤트투자

  • ⚖️ [판단] 종목 추천 시 섹터·백로그·정책 발표를 우선 고려

  • 방산 추천 근거로 백로그 규모, 정부 증산 요청 등 정책·수요 신호를 우선 판단 기준으로 삼아 종목 선정의 근거력을 높임.
  • 태그: 투자판단, 근거중심

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 우선 도입
  • 전체 OMC 방식을 한꺼번에 도입하지 않고 도메인 적합성을 고려해 '모델별 에이전트 분리', 'learner 패턴 추출', 'preemptive-compaction' 등 핵심 3가지만 먼저 구현해 리스크와 작업량을 줄임.
  • 태그: 점진적 도입, 리스크관리

  • 🔧 [해결] 모델 능력에 따라 라우팅 계층 분리

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)처럼 역할·지연성·정확도 기준으로 모델 라우팅을 설계해 작업을 분산시킴.
  • 태그: 아키텍처, 모델라우팅

  • ⚖️ [판단] 도메인 적합성으로 기능 범위 결정

  • 새 시스템 도입 여부는 코드 개발 전문성 등 도메인 적합성으로 판단해 전면 도입 대신 체리픽(부분 도입)을 선택함.
  • 태그: 의사결정기준, 범위설정

  • 💡 [발견] 전쟁·지정학적 이벤트가 특정 섹터에 직접 영향

  • 지정학적 사건은 방산·에너지·금·해운·비료 등 일부 섹터에 즉각적이고 큰 수익률 변화를 일으켜 종목 추천·리서치 우선순위를 바꿈.
  • 태그: 도메인인사이트, 시장관찰

  • 🔄 [개선] 자동화 테스트와 리포트 병행으로 신뢰도 확보

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 병행해 자동화된 리포트의 정확성과 회복 절차 검증을 강화함.
  • 태그: 테스트, 자동화

  • 📚 [교훈] 초기 과도한 전면 적용은 비효율

  • OMC 전체를 한번에 적용하려다 비도메인성 문제로 불필요한 작업이 생김 → 앞으로는 작은 범위 체리픽과 검증 후 확대 적용으로 시간을 절약할 것.
  • 태그: 실수와교훈, 프로젝트관리

  • 💡 [발견] LLM 호출 통계로 모델별 적합도 파악 가능

  • 호출 수·성공률·레이턴시 통계를 활용해 모델별 역할(예: latency가 낮은 Sonnet을 다수 호출)에 맞는 활용 전략을 수립함.
  • 태그: 운영지표, 모델선택

  • ⚖️ [판단] 공식 문서와 로컬 확인을 병행해 정보 수정

  • 초기에는 공개 여부 불확실로 판단했으나 OpenAI 공식 문서 재확인과 로컬 Codex 설정 확인을 통해 모델 공개·오버라이드 지원을 확정함 — 문서+실환경 검증 병행 권장.
  • 태그: 검증절차, 정보확인

2026-03-19

  • 🔧 [해결] 도메인 불일치일 때 체리픽(부분 도입)으로 비용 절감
  • OMC를 전체 도입하지 않고 '코드 개발 전용'이 아니므로 필요한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현해 개발 부담과 유지비용을 줄임.
  • 태그: 선택적도입, 비용절감

  • 🔧 [해결] 모델 역할을 라우팅해 작업 효율화

  • 작업 성격에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 모델/에이전트를 분리해 각 모델의 강점을 살려 호출 수와 레이턴시를 최적화함.
  • 태그: 모델라우팅, 역할분리

  • ⚖️ [판단] 기능 전체 도입 vs 체리픽 판단 기준은 '도메인 적합성'

  • 새 시스템 도입 시 전체 적용 대신 도메인 적합성(팀의 전문성·업무 범위)에 따라 부분 적용을 선택함 — 도메인 불일치면 일부만 채택.
  • 태그: 의사결정기준

  • 💡 [발견] 모델별 호출 특성은 작업 유형과 레이턴시에 따라 큰 차이

  • 같은 세션에서도 cliproxy/claude-sonnet-4-6는 호출량↑·레이턴시 낮음, github-copilot/gpt-5-mini는 레이턴시 높음 → 작업 특성에 맞는 모델 선택으로 효율 개선 가능.
  • 태그: 모델특성, 관찰

  • 🔄 [개선] 사전 정리된 에이전트 추가로 확장성 확보

  • 에이전트 수를 8→12로 늘리고 역할(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)을 명확히 하여 책임 분리와 병렬 처리 능력을 향상시킴.
  • 태그: 아키텍처, 확장성

  • 📚 [교훈] 문서 확인 후 빠르게 정정하고 기록하기

  • 초기에 Codex 공개 여부를 불확실하게 기록했다가 공식 문서로 확인한 뒤 정정함 — 불확실한 정보는 '미확인'으로 표기하고 확인 즉시 로그로 정정해야 함.
  • 태그: 운영절차, 정정

  • 🔧 [해결] 대화형 Q&A에서 누락된 관심사 빠르게 보완

  • 사용자(투자자)가 특정 종목을 놓쳤다고 지적하면 즉시 섹터별·종목별 맵을 제공해 신뢰 회복과 정보 완전성을 보장함(예: 전쟁 수혜주 전체 맵 작성).
  • 태그: 사용자응대, 정보보완

2026-03-19

  • 🔧 [해결] OMC 전체 도입 대신 체리픽 3가지만 적용
  • 도메인 불일치로 OMC 전체를 도입하기보다는, 필요 기능만 선별(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 적용해 비용·복잡도를 줄이고 효과는 유지함.
  • 태그: OMC, 체리픽, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할(심층/분석/빠른실행) 기준으로 결정

  • 에이전트 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행) 처럼 역할·성격에 따라 모델·에이전트를 분리하여 필요 성능·응답속도·비용을 균형있게 맞춤.
  • 태그: 모델선택, 라우팅, 역할기반

  • 💡 [발견] 공식 문서와 로컬 상태가 시점에 따라 달라질 수 있음

  • 08:15에 gpt-5.4-mini 공개 여부를 확인 못했다가 08:16에 공식 문서에 표기된 것을 확인함 — 문서·버전 정보는 짧은 시간 내에 갱신될 수 있으므로 재확인 요망.
  • 태그: 문서검증, 버전관리

  • 🔄 [개선] 모델 오버라이드 방식 문서화 및 툴(클라이언트) 지원 점검

  • Codex CLI가 -m/--model 또는 config.toml로 모델 오버라이드를 지원하므로, 모델 변경 필요 시 로컬 오버라이드 절차를 표준화해 혼선과 반복검증을 줄임.
  • 태그: 운영절차, 도구설정

  • 🔧 [해결] 에이전트 확장으로 역할 분담 세분화

  • 기존 8개에서 12개로 에이전트를 확장(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 추가)해 책임을 분산시키고 각 파이프라인 문제를 더 전문적으로 처리하도록 구성함.
  • 태그: 에이전트운영, 스케일링

  • 🔧 [해결] preemptive-compaction으로 프롬프트/응답 관리

  • 사전 압축(preemptive-compaction) 훅을 추가해 프롬프트 총량과 응답량을 관리함으로써 호출 비용과 레이턴시를 제어하려는 시도.
  • 태그: 프롬프트관리, 비용절감

  • 📚 [교훈] 빠른 결론 대신 재확인 루틴을 둬라

  • 초기 08:15 판정(미확인) 이후 08:16에 재확인으로 정정한 사례 — 외부 문서·버전 등은 단일 확인으로 결론내지 말고 재확인 루틴을 두어 오류를 줄여야 함.
  • 태그: 검증루틴, 운영안전

  • 🔄 [개선] 복구 리포트 자동화 + 유닛/통합 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 작성으로 복구 파이프라인의 신뢰성을 높이는 워크플로우 개선을 도입함.
  • 태그: 자동화, 테스트

2026-03-19

  • 🔧 [해결] 도메인 맞지 않는 전체 도입 대신 체리픽
  • OMC 전체 도입이 도메인 적합성이 떨어진다고 판단될 때, 전체 채택 대신 도메인에 맞는 핵심 기능 3가지만 선별해(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction) 구현한다.
  • 태그: 범위관리, 빠른가치, POC

  • ⚖️ [판단] 모델 라우팅은 역할·지연성 기준으로 분리

  • 심층 판단에는 고비용·고사양 모델(Opus), 분석·디버깅에는 중간 모델(Sonnet), 빠른 실행에는 경량 모델(Haiku)을 배치하는 방식으로 모델 라우팅을 결정한다.
  • 태그: 모델선택, 성능비용, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI에서 -m/--model 옵션과 config.toml의 model 키로 로컬에서 모델 변경(오버라이드)이 가능함을 확인함 — 공식 공개 여부와 별개로 로컬 운용 유연성이 존재.
  • 태그: 툴링, 운영

  • 🔄 [개선] 에이전트 확장 시 역할 세분화

  • 기존 에이전트(8개)에서 역할을 세분화(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 추가)해 책임을 명확히 하고 특정 작업군의 전문성을 높였다.
  • 태그: 조직, 분업, 확장

  • 🔧 [해결] preemptive-compaction으로 프롬프트 관리

  • 프롬프트 총량이 커질 때 사전 압축(preemptive-compaction) 훅을 도입해 LLM 호출 시 전송량을 줄이고 호출 성공률/응답 품질을 유지한다.
  • 태그: 프롬프트관리, 비용절감, 신뢰성

  • 💡 [발견] 모델별 레이턴시와 호출 패턴의 상관

  • 같은 작업군에서도 모델별 평균 레이턴시가 크게 달라(예: gpt-5-mini 14s vs sonnet 4s), 라우팅 정책은 레이턴시를 고려해야 실제 응답성 요구를 만족시킬 수 있다.
  • 태그: 성능관찰, 모니터링

  • 📚 [교훈] 공식 문서 확인의 반복성

  • 초기 확인에서 공개 불가로 기록했다가 재확인으로 공개 표기가 확인된 사례 — 외부 문서·버전 정보는 즉시 재검증(또는 소스 고정)하지 않으면 오보/정정이 발생함.
  • 태그: 검증, 커뮤니케이션, 신뢰성

  • 🔄 [개선] 복구 리포트 자동화와 테스트 병행

  • recovery 리포트 자동화 스크립트를 작성하면서 유닛/통합 테스트(recovery_collector 유닛/통합 테스트)를 병행해 자동화 신뢰도를 높이는 워크플로우로 전환.
  • 태그: 자동화, 테스트

2026-03-19

  • 🔧 [해결] 대규모 LLM 호출 실패·불확실성 → 모델별 체리픽으로 안정화
  • 전체 OMC 도입 대신 도메인 적합한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 체리픽하여 복잡도와 리스크를 낮추고 성공률을 유지함.
  • 태그: LLM운영, 리스크관리, 단계적도입

  • ⚖️ [판단] 기능 전체 도입 vs 선별 도입 → 도메인 적합성 기준으로 선별

  • 새 프레임워크(OMC)를 전면 도입할지 결정할 때 '팀의 코드 개발 전문성/도메인 적합성'을 우선 평가하여, 부적합하면 부분(체리픽) 도입을 선택함.
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델별 역할 분리 → 성능/응답시간 최적화

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku) 등 모델 라우팅으로 각 모델의 강점을 살려 호출 효율과 평균 레이턴시를 개선함.
  • 태그: 모델라우팅, 성능최적화

  • 🔄 [개선] 수동 조사 → 자동화된 리포트/테스트 파이프라인 추가

  • recovery 리포트 자동화 스크립트와 recovery_collector 유닛/통합 테스트를 작성하여 수동 복구 작업을 자동으로 수집·검증하는 워크플로로 전환함.
  • 태그: 자동화, 테스트

  • 🔧 [해결] 모델 공개 여부 불확실 → 공식 문서 확인 후 도구 설정 검증

  • gpt-5.4 mini 공개 여부가 초기에는 불확실했으나 공식 Models 문서 확인 및 Codex CLI의 -m/--model, config.toml 설정 지원을 검증해 모델 오버라이드 가능성을 확정함.
  • 태그: 검증절차, 문서확인

  • 💡 [발견] LLM 호출 통계는 운영 판단의 핵심 신호

  • 총 호출량·성공률·평균 레이턴시·에러 수 같은 지표를 통해 모델 선택·오케스트레이션과 신뢰성 개선 포인트(예: 높은 레이턴시 모델 분리)를 도출함.
  • 태그: 모니터링, 운영지표

  • 📚 [교훈] 전면 도입 시도 → 도메인 미부합으로 변경 비용 증가

  • 처음부터 전체 OMC 방식으로 밀어붙이면 불필요한 작업과 높은 변경 비용이 발생할 수 있어, 초기에는 도메인 적합성 검증 후 부분 적용이 더 안전함.
  • 태그: 프로젝트관리, 작은단위시행

  • 🔄 [개선] 에이전트 확장 시 역할·스코프 명확화

  • 에이전트 수를 8→12로 확장하면서 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 역할을 세분화해 책임 경계와 전문성(심층 분석 vs 빠른 실행)을 분명히 함.
  • 태그: 조직설계, 역할분화

2026-03-19

  • 🔧 [해결] 복잡한 기능은 체리픽으로 축소 구현
  • 전체 OMC 방식을 한꺼번에 도입하지 않고 도메인 적합성 기준으로 핵심 3가지만 선택(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)해 우선 구현함으로써 개발 비용과 리스크를 줄였다.
  • 태그: 범위관리, 리스크감소

  • ⚖️ [판단] 도메인 적합성으로 도입 범위 결정

  • 새 기법(OMC)의 전체 도입 여부는 '코드 개발 전문성 여부(도메인 적합성)'를 기준으로 판단하고, 적합하지 않으면 핵심만 체리픽한다.
  • 태그: 의사결정기준, 도메인검증

  • 💡 [발견] 모델 라우팅은 역할에 따라 분화

  • 3단계 모델 라우팅(Opus: 심층 판단, Sonnet: 분석·디버깅, Haiku: 빠른 실행)을 통해 작업 성격별 모델 배치가 효과적임을 확인했다.
  • 태그: 아키텍처, 모델배치

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분담

  • 기존 에이전트(8개)를 12개로 늘려 역할을 세분화(예: analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)함으로써 책임 경계와 전문성을 확보했다.
  • 태그: 조직구조, 확장성

  • 🔧 [해결] 로컬 툴로 모델 선택권 보장

  • 공식 문서의 불확실성(모델 공개 여부) 발생 시 로컬 Codex의 모델 오버라이드 옵션(-m/--model, config.toml)을 활용해 즉시 테스트·전환이 가능하도록 대응했다.
  • 태그: 운영대응, 도구활용

  • 📚 [교훈] 문서 확인 후 판단 정정 필요성

  • 초기엔 gpt-5.4 mini 공개 여부를 확인하지 못했으나 추가 문서 확인으로 정정함. 외부 정보가 혼재할 때는 곧바로 문서 근거를 찾아 의사결정을 정정해야 한다.
  • 태그: 정보검증, 절차교훈

  • 💡 [발견] LLM 호출 통계로 신뢰성·성능 모니터링

  • 모델별 호출 수·성공률·평균 레이턴시를 꾸준히 기록하여 특정 모델의 안정성(예: cliproxy/claude-sonnet-4-6 높은 성공률·빠른 레이턴시)을 파악하고 라우팅 정책에 반영했다.
  • 태그: 모니터링, 성능지표

  • 🔄 [개선] 자동화 스크립트+유닛테스트 병행 개발

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector의 유닛/통합 테스트를 작성하여 자동화 신뢰도를 높이는 워크플로우로 전환했다.
  • 태그: 테스트자동화, 개발워크플로우

  • 🔧 [해결] 섹터별 이슈 대응은 분야별 대표종목 분석 사용

  • 사용자 불만(추천 누락)에 대해 섹터별 YTD 수익률과 대표 종목을 정리해 즉시 응답·설명함으로써 신뢰 회복과 정보 제공 문제를 해결했다.
  • 태그: 사용자지원, 데이터요약

2026-03-19

  • 🔧 [해결] 큰 시스템은 체리픽으로 도입
  • 전체 OMC를 한 번에 도입하지 않고 도메인 적합한 3가지 기능(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 선택해 단계적으로 적용함으로써 개발비용과 리스크를 줄임.
  • 태그: 도입전략, 리스크관리

  • 🔧 [해결] 모델 역할별 라우팅으로 책임 분리

  • 심층 판단·분석·빠른 실행 등 기능을 모델군(Opus/Sonnet/Haiku)으로 나눠 요청을 라우팅해 각 모델의 강점을 살리고 호출 효율을 개선함.
  • 태그: 아키텍처, 모델라우팅

  • ⚖️ [판단] 도메인 적합성으로 도입 여부 결정

  • 새 기술(OMC)을 무조건 적용하지 않고 '코드 개발 전문성 vs 도메인 적합성' 기준으로 필요 부분만 채택할지 판단함.
  • 태그: 의사결정기준, 적합성

  • 💡 [발견] 모델별 평균 레이턴시 차이 존재

  • 같은 작업군에서 모델별 평균 레이턴시가 크게 달라(gpt-5-mini ~14s, sonnet ~4s) 라우팅·비용·성능 고려가 필요함.
  • 태그: 관찰, 성능

  • 🔄 [개선] 에이전트 수평 확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep 등 특화 역할을 만들며 책임과 유지보수를 용이하게 함.
  • 태그: 조직화, 확장

  • 🔄 [개선] preemptive-compaction으로 리소스 절약

  • 사전압축(preemptive-compaction) 훅을 도입해 프롬프트·응답 부담을 줄이고 LLM 호출 총량 대비 응답 효율을 높임.
  • 태그: 성능최적화, 프롬프트관리

  • 📚 [교훈] 공식 문서 검증을 반복하라

  • 초기엔 gpt-5.4 mini 공개 여부가 불확실했으나 문서 재검증을 통해 정정함 — 외부 정보는 재확인·기록해야 함.
  • 태그: 검증, 절차

  • 📚 [교훈] 통계 모니터링은 문제 조기발견 수단

  • LLM 호출 수·성공률·프롬프트·응답량·에러 수 등 지표를 꾸준히 기록해 모델 실패나 성능 이슈(에러 6건 등)를 빠르게 파악하도록 함.
  • 태그: 모니터링, 운영

  • 💡 [발견] 도메인 이벤트는 섹터별 수익률에 직접적 영향

  • 예: 전쟁·공급 차질 같은 실물 이벤트가 방산·에너지·비료·금 등 섹터의 주가·수익률을 크게 움직이는 상관관계를 확인함.
  • 태그: 도메인지식, 시장관찰

  • 🔧 [해결] 사용자 불만엔 섹터 맵으로 응답

  • 투자 질문(특정 종목 누락)에 대해 섹터별 영향·대표 종목·핵심 포인트를 정리한 맵으로 빠르고 포괄적 응답을 제공함.
  • 태그: 고객응대, 정보구성

2026-03-19

  • 🔧 [해결] 체리픽으로 필요 기능만 도입
  • 전체 OMC 도입 대신 도메인에 맞는 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현하여 개발비용과 복잡도를 줄임.
  • 태그: 데시전절감, 단계도입, 비용절감

  • ⚖️ [판단] 모델 라우팅은 역할 중심으로 분류

  • 심층 판단(Opus), 분석·디버깅(Sonnet), 빠른 실행(Haiku)처럼 에이전트 역할과 처리 요구(심층성 vs 속도)에 따라 모델/에이전트를 라우팅함.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 모델별 레이턴시 및 호출 패턴 차이 관찰

  • cliproxy/claude-sonnet-4-6는 호출 수가 많고 평균 레이턴시가 낮음, github-copilot/gpt-5-mini는 레이턴시가 높음 — 작업 유형에 따라 모델 배치 영향이 큼.
  • 태그: 관측, 성능

  • 🔄 [개선] 에이전트 확장으로 역할 세분화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 전문 역할을 추가해 책임 분리와 병렬 처리 효율을 높임.
  • 태그: 워크플로우, 스케일링

  • 📚 [교훈] 공식 문서 확인을 통한 정보 정정

  • 초기에는 gpt-5.4 mini 공개 여부가 불확실했으나 공식 Models 문서 확인으로 정정함 — 불확실한 정보는 바로 문서 소스 확인이 필요함.
  • 태그: 검증, 리서치

  • 🔧 [해결] recovery 리포트 자동화 → 테스트·통합으로 안정성 확보

  • recovery 리포트 스크립트 작성 후 recovery_collector 유닛/통합 테스트를 추가해 자동화 결과의 신뢰성을 검증하고 운영 안정성을 높임.
  • 태그: 자동화, 테스트

  • 💡 [발견] 시장 이벤트가 섹터별 수혜로 직결됨

  • 전쟁·공급 차질 같은 이벤트는 방산·에너지·금·비료·사이버보안 등 섹터별로 뚜렷한 수혜 패턴을 만들어 투자 대상 선정에 직접적 근거가 됨.
  • 태그: 도메인인사이트, 투자분석

2026-03-19

  • 🔧 [해결] 복잡한 모델 기능은 체리픽해서 부분 적용
  • OMC 전체 도입은 도메인 부적합할 때, 관련 기능(모델별 에이전트 분리·learner 패턴·preemptive-compaction)만 선별해 구현해 비용과 위험을 줄임
  • 태그: 모델운영, 점진적도입, 리스크관리

  • ⚖️ [판단] 모델 라우팅 기준은 역할(심층 판단/분석/빠른 실행)

  • 에이전트 라우팅을 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)처럼 역할에 따라 모델을 분리해 성능과 응답속도 요구를 맞춤
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • Codex CLI와 config.toml의 model 키를 통해 로컬 환경에서 모델 변경이 가능하므로 공식 문서 미확인 상태에서도 실험 환경 구성 가능
  • 태그: 툴링, 환경설정

  • 🔄 [개선] 에이전트 확장 시 역할 세분화로 처리량 증가

  • 기존 8개에서 12개로 에이전트 늘리며 analyst/report-writer/pipeline-debugger-deep/cron-doctor-deep 같은 특화 역할을 추가해 작업 분담과 전문성 향상
  • 태그: 워크플로우, 스케일링

  • 🔧 [해결] 회복 리포트·테스트 자동화로 안정성 확보

  • recovery 관련 자동화 스크립트 및 유닛/통합 테스트를 작성해 장애 복구 프로세스의 재현성과 신뢰도를 높임
  • 태그: 테스트, 자동화, 신뢰성

  • 💡 [발견] LLM 호출 통계로 모델별 비용·성능 비교 가능

  • 모델별 호출수·성공률·평균 레이턴시 집계를 통해 어느 모델이 비용대비 성능이 좋은지 판단하고 라우팅 정책에 반영
  • 태그: 관측, 메트릭

  • 📚 [교훈] 공식 문서 확인은 반복 검증이 필요

  • 초기에 gpt-5.4-mini 공개 여부가 불확실했으나 이후 정정됨 — 외부 문서 정보는 즉시 확정하지 말고 교차검증 후 의사결정에 반영해야 함
  • 태그: 검증, 절차

  • ⚖️ [판단] 도메인 적합성으로 기능 도입 여부 결정

  • 기능이나 프레임워크(예: OMC)를 도입할 때 조직의 주된 업무(코드 개발)에 맞지 않으면 전체 도입 대신 요구에 맞는 일부 기능만 채택
  • 태그: 전략, 도입기준

2026-03-19

  • 🔧 [해결] 체리픽으로 필요 작업만 선택해 빠르게 적용
  • OMC 전체 도입은 도메인 불일치로 비효율적이라 판단하고, 관련된 3가지(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)만 골라 구현함으로써 비용과 복잡도를 낮추고 성과를 확보했다.
  • 태그: 범위축소, 우선순위, 효율

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리한다

  • 심층 판단에 강한 모델(Opus), 분석·디버깅용 모델(Sonnet), 빠른 실행용 모델(Haiku)처럼 역할(속성)에 따라 모델을 라우팅하면 작업 효율성과 응답 특성(정밀도 vs 속도)을 최적화할 수 있다.
  • 태그: 아키텍처, 모델선택

  • 💡 [발견] 로컬 Codex는 모델 오버라이드를 지원한다

  • 공식 문서와 현행 확인을 통해 Codex CLI의 -m/--model 및 config.toml의 model 키로 로컬에서 모델 변경이 가능함을 확인했다. 즉 로컬 환경에서 모델 실험이 용이하다.
  • 태그: 툴링, 환경검증

  • 🔄 [개선] 에이전트 증설은 역할 세분화와 병행한다

  • 에이전트를 8→12개로 확장하면서 analyst·report-writer·pipeline-debugger-deep·cron-doctor-deep처럼 역할을 세분화해 책임을 분리함으로써 특정 작업(디버깅, 리포트, 크론 진단)의 전문성을 높였다.
  • 태그: 조직, 책임분리, 확장

  • 📚 [교훈] 전체 도입보다 도메인 적합성 우선 판단 필요

  • OMC 전체 도입을 시도하지 않고 도메인 불일치(코드 개발 전문 아님)를 이유로 부분 적용(체리픽)을 선택한 판단에서, 범용 솔루션은 항상 도메인 적합성 검증 후 적용해야 함을 재확인했다.
  • 태그: 거버넌스, 리스크

  • 🔧 [해결] preemptive-compaction으로 프롬프트/응답 비용 관리

  • preemptive-compaction 훅을 추가해 프롬프트 총량과 응답량을 줄일 구조를 마련함으로써 LLM 호출 비용과 레이턴시를 통제하려는 접근을 적용했다.
  • 태그: 비용관리, 프롬프트엔지니어링

  • 💡 [발견] 모델별 레이턴시·성공률 편차 관찰

  • 세션 통계에서 cliproxy/claude-sonnet-4-6은 호출이 많고 레이턴시가 낮았으며 성공률이 높아 반복 작업에 유리했고, 일부 모델(openai-codex/gpt-5.4 등)은 호출·성공 데이터가 거의 없거나 실패해 실무 적용 가치가 낮음을 확인했다.
  • 태그: 관측, 성능측정

  • 📚 [교훈] 정보 정정과 재검증을 빠르게 반영하라

  • 08:14에 'gpt-5.4 mini 공개 불가'로 판단했다가 08:16에 공식문서에서 공개 표기가 확인되어 정정함. 빠른 재검증·정정 프로세스가 신뢰성 유지에 중요함을 보여준다.
  • 태그: 검증, 정정절차

  • 🔧 [해결] 복구 리포트·테스트 자동화로 안정성 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 작성을 통해 장애 대응과 검증 과정을 자동화해 복구 신뢰도를 높이는 방향을 적용했다.
  • 태그: 테스트, 운영자동화

2026-03-19

  • 🔧 [해결] 대규모 모델호출 비용·지연 문제 → 모델 라우팅으로 분리
  • 동일 워크로드를 목적에 따라 Opus(심층 판단), Sonnet(분석·디버깅), Haiku(빠른 실행)로 라우팅해 레이턴시·비용·성능을 최적화함. 모델별 역할을 미리 정의하고 호출을 그에 맞게 분배한다.
  • 태그: 모델운영, 성능최적화, 아키텍처

  • 🔧 [해결] 전체 도입 대신 체리픽(선택적 도입)

  • OMC 전체 적용이 불필요할 때 도메인 적합한 핵심 기능 3가지를 선택해 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 비용과 복잡도를 낮추고 빠른 가치 실현을 우선함.
  • 태그: 프로덕트전략, 비용절감, 우선순위

  • ⚖️ [판단] A vs B 비교 시 도메인 적합성 기준 적용

  • 새 기술·프레임워크 도입 판단은 '우리 도메인과 얼마나 맞는가'를 우선으로 삼음(OMC 전체 도입 대신 코드개발에 맞는 부분만 채택).
  • 태그: 의사결정, 도메인중심

  • 💡 [발견] 프롬프트·응답 볼륨과 호출 성공률의 분리

  • 프롬프트 총량은 매우 크지만 모델별 성공률/레이턴시는 다르게 나타남(예: 호출 수 많은 모델의 레이턴시가 낮음). 호출 수·문자량·성공률을 각각 모니터링해야 병목·비용을 파악 가능.
  • 태그: 관측, 모니터링

  • 🔄 [개선] 재사용 가능한 스크립트·훅 추가로 운영 자동화

  • 세션에서 생성된 scripts/session_learner.py, preemptive-compaction.sh 등으로 반복 작업 자동화하고 회복(recovery) 리포트·유닛 테스트 자동화로 안정성 향상.
  • 태그: 자동화, 운영

  • 📚 [교훈] 모델 공개정보와 로컬 결과 차이로 인한 혼선 → 문서 재확인 루틴 필요

  • gpt-5.4 mini 공개 여부가 세션 중 정정됨. 공개 문서·로컬 도구(클라이언트) 설정을 동시에 검증하는 체크리스트를 도입해야 혼동을 줄일 수 있음.
  • 태그: 교훈, 검증

  • 💡 [발견] 전쟁·정세 이벤트가 섹터별 투자 기회로 빠르게 연결됨

  • 정치·군사 이벤트(예: 이란 전쟁)가 방산·에너지·금·사이버보안·해운·비료 등 섹터에 직접적·즉각적 수혜로 연결됨. 이벤트→섹터 맵핑을 정리해 빠른 대응 가능.
  • 태그: 도메인지식, 금융

  • 🔧 [해결] 사용자 불만(정보 누락) → 사과 + 보완 정보 제공 패턴

  • 사용자 질의(Vg 관련)에서 누락이 발견되면 즉시 사과하고 관련 섹터 맵·대표 종목·요약을 제공해 신뢰 회복 및 정보 제공을 동시에 수행함.
  • 태그: 커뮤니케이션, 고객응대

2026-03-19

  • 🔧 [해결] 대형 시스템 도입 대신 체리픽 3가지만 적용
  • OMC 전체 도입이 도메인과 맞지 않아 불필요하다고 판단하고, 대신 모델별 에이전트 분리·learner 패턴 추출·preemptive-compaction의 3가지를 선택해 구현으로 문제를 해결함. 대규모 전환보다 작은 고임팩트 변경을 우선 적용하는 방식.
  • 태그: 적용범위결정, 점진적도입, 리스크감소

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 에이전트 확장 시 역할(심층 판단/분석·디버깅/빠른 실행)별로 모델 라우팅(Opus/Sonnet/Haiku)을 결정. 기능과 지연성 요구에 따라 모델을 매핑하는 기준을 제시함.
  • 태그: 모델선택, 역할기반, 성능요구

  • 💡 [발견] 프롬프트·응답량 대비 호출 성공률과 레이턴시 분리 관찰

  • 세션별로 총 프롬프트, 응답량, 호출수, 성공률, 모델별 평균 레이턴시를 기록해 모델별 비용·속도·신뢰도의 상관관계를 확인함(예: cliproxy/claude-sonnet-4-6은 호출 많고 레이턴시 낮음).
  • 태그: 모니터링, 성능측정, 비용분석

  • 🔄 [개선] recovery 리포트 자동화와 유닛 테스트 병행

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 작성하여 자동화된 리포트의 신뢰성을 확보하는 워크플로우로 전환함(개발→테스트→배포 순서 강화).
  • 태그: 자동화, 테스트주도, 신뢰성

  • 📚 [교훈] 공식 문서 확인과 처음 발견한 정보의 수정 반복 필요

  • 08:14에 'gpt-5.4 mini 공개 확인 불가'로 기록했다가 08:16에 정정해 공개 표기 확인. 외부 문서 기반 판단은 즉시 확정하지 말고 재검증 루틴을 두어야 함.
  • 태그: 검증절차, 외부자료신뢰도, 정정프로세스

  • 🔧 [해결] 전문성 미스매치 시 범위 축소로 효율화

  • 도메인(코드 개발)과 맞지 않는 전체 OMC 도입을 배제하고, 도메인에 맞는 부분만 골라 적용해 시간과 노력을 절약함. 즉, 전문성 불일치 문제 → 부분 적용으로 해결.
  • 태그: 범위관리, 효율성, 전문성일치

  • ⚖️ [판단] 모델 전환 권장은 CLI 설정과 문서 지원 확인 후

  • Codex CLI가 -m/--model 및 config.toml로 모델 오버라이드를 지원함을 확인한 뒤 모델 변경 가능성 판단. 도구 지원 여부를 판단 기준으로 삼음.
  • 태그: 운영성, 설정검증, 도구지원

  • 💡 [발견] 전쟁 관련 섹터 수익 패턴과 종목 연관성

  • 대화에서 전쟁으로 인한 방산·에너지·금·사이버보안·해운·비료 등의 수혜가 구체적 종목 및 이유(예: 생산 증산 요청, 공급 차질)를 통해 연결되어 있음을 확인함. 사건→섹터→종목 맵핑 패턴 발견.
  • 태그: 도메인인사이트, 사건영향, 투자분석

2026-03-19

  • 🔧 [해결] 도메인 불일치인 기능은 체리픽해 소규모로 도입
  • OMC 전체 도입이 적합하지 않을 때, 관련된 유용한 기능 3가지만 선별(cherry-pick)해 도입함으로써 개발 비용과 범위 리스크를 줄이고 효과를 검증했다.
  • 태그: 범위관리, 체리픽, 리스크완화

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해 선택

  • 심층 판단용(Opus), 분석·디버깅용(Sonnet), 빠른 실행용(Haiku)처럼 작업 성격에 따라 모델/에이전트를 계층화하여 할당하는 기준을 적용했다. 작업 요구 성능(정확도 vs 속도)으로 판단.
  • 태그: 모델선택, 라우팅, 성능-요구

  • 💡 [발견] 프롬프트·응답 비율과 호출 성공률의 운영 지표화

  • 세션별 총 호출, 성공률, 프롬프트 총량, 응답 총량, 모델별 평균 레이턴시를 정기적으로 기록해 성능·비용·신뢰도를 비교 분석할 수 있게 했다.
  • 태그: 측정, 운영지표, 모니터링

  • 🔄 [개선] 에이전트 수평 확장으로 역할 분리 강화

  • 기존 8개에서 12개로 에이전트를 늘려 analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등 세분화된 책임을 부여해 병렬 처리와 책임 경계를 명확히 했다.
  • 태그: 아키텍처, 확장, 책임분리

  • 📚 [교훈] 초기 문서 확인 없이 단정하면 정정이 필요해짐

  • 08:14에 gpt-5.4 mini 공개 여부를 확인 불가로 기록했다가 08:16에 공식 문서에서 공개 표기를 확인해 정정했다. 외부 문서/공식 소스 재확인이 중요함.
  • 태그: 검증, 정보출처, 교차검증

  • 🔧 [해결] 복구 리포트·테스트 자동화로 신뢰성 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트 추가로 장애 대응과 재현검증을 자동화해 운영 신뢰성을 높였다.
  • 태그: 자동화, 테스트, 복구

2026-03-19

  • 🔧 [해결] 도메인 불일치일 땐 체리픽으로 핵심만 도입
  • 전체 OMC 방식 도입이 적절하지 않다고 판단되면(도메인 불일치) 전부 도입하지 않고, 적용 가능하고 가치 높은 3가지만 선별해(cherry-pick) 구현하여 비용과 복잡도를 줄인다. 예: 모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction 적용.
  • 태그: 도입전략, 비용절감, 체리픽

  • ⚖️ [판단] 모델 라우팅은 역할별로 분리해서 판단

  • 모델을 한가지 기준으로 묶지 않고 역할과 특성(심층 판단, 분석·디버깅, 빠른 실행)에 따라 라우팅(예: Opus/심층, Sonnet/분석, Haiku/빠른실행)하여 효율성과 응답 품질을 높인다.
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 로컬 Codex는 모델 오버라이드 지원

  • 공식 문서와 로컬 환경 확인을 통해 Codex CLI가 -m/--model 플래그와 config.toml의 model 키로 모델 변경을 지원한다는 사실을 확인함 — 운영 시 모델 전환이 가능함.
  • 태그: 도구, 운영

  • 💡 [발견] LLM 호출 통계로 안정성·성능 패턴 관찰

  • 여러 세션의 호출·성공률·레이턴시 로그를 모아 모델별 특성(예: cliproxy/claude-sonnet이 호출량 많고 레이턴시 적음)을 파악하면 라우팅·캐싱·타임아웃 정책을 개선할 수 있다.
  • 태그: 모니터링, 성능분석

  • 🔄 [개선] 에이전트 확장은 역할 추가로 세분화

  • 단순 수 증식 대신 역할별 에이전트(analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep 등)를 추가해 책임을 명확히 하고 각 에이전트에 맞는 프롬프트·테스트·전용 스크립트를 부여하여 유지보수성과 확장성을 개선함.
  • 태그: 조직화, 에이전트설계

  • 🔧 [해결] 복구 리포트 자동화 → 유닛·통합 테스트 병행

  • recovery 리포트 자동화 스크립트 개발과 동시에 recovery_collector의 유닛/통합 테스트를 작성하여 자동화된 리포트가 신뢰할 수 있도록 검증 루프를 마련함.
  • 태그: 테스트, 자동화, 신뢰성

  • 📚 [교훈] 문서 확인은 초기 판단을 수정할 수 있다

  • 초기에는 gpt-5.4 mini 공개 확인 불가로 판단했으나 공식 문서 재확인 후 공개 표기로 정정함 — 외부 문서/공식 소스는 빠르게 재검증해야 함.
  • 태그: 검증, 실수교정

  • ⚖️ [판단] 체리픽 결정은 도메인 적합성으로 판단

  • 새 기술이나 방식 도입 여부는 '이 팀의 도메인 적합성'을 기준으로 삼아 전체 도입 대신 부분 적용(체리픽) 여부를 결정한다.
  • 태그: 판단기준, 도입전략

  • 📚 [교훈] LLM 호출 로그는 운영 이슈 조기탐지에 유용

  • 성공률·에러·레이턴시·프롬프트·응답량을 시간별로 모니터링하면 모델 실패·비용 급증·성능저하를 조기에 감지해 대응 우선순위를 정할 수 있다.
  • 태그: 운영, 관찰성

2026-03-19

  • 🔧 [해결] 부분 적용(체리픽)으로 복잡한 도입 비용 줄이기
  • 전체 OMC 도입이 도메인과 맞지 않을 때, 핵심 유용 기능 3가지만 선별해 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction)하여 효과는 유지하고 비용/복잡도를 낮춤
  • 태그: 체리픽, 비용절감, 점진적도입

  • ⚖️ [판단] 모델 라우팅은 역할 기반으로 분리

  • 심층 판단-분석-빠른 실행 등 목적별로 모델/에이전트를 분리(Opus/ Sonnet/ Haiku)하여 각 모델의 강점을 활용하고 레이턴시·정확도 요구에 따라 트래픽을 라우팅
  • 태그: 모델선택, 아키텍처

  • 💡 [발견] 모델별 성능·레이턴시 차이가 서비스 설계에 영향

  • 로그에서 github-copilot 평균 레이턴시가 크고(≈14s), claude-sonnet이 낮음(≈4s)으로 나타나 모델 선택과 라우팅 정책(심층·빠른 실행 분리)에 직접 반영됨
  • 태그: 계측기반의사결정, 관측

  • 🔄 [개선] 사전 압축(preemptive-compaction)으로 프롬프트 비용·성능 개선

  • 프롬프트 총량이 큰 작업에서 입력을 사전 압축하거나 요약하여 호출량/토큰비용과 레이턴시를 줄이는 패턴을 도입함
  • 태그: 토큰절감, 프롬프트엔지니어링

  • 📚 [교훈] 공식 소스 먼저 확인 — 서둘러 정정 필요

  • gpt-5.4-mini 공개 여부를 현지 확인 없이 초기엔 확인 불가로 기록했다가 이후 공식 문서에서 공개 표기를 확인해 정정함 → 중요한 외부 사실은 먼저 공식 문서/공식 엔드포인트로 검증 후 기록할 것
  • 태그: 출처검증, 실수교정

  • 🔧 [해결] 사용자 불만 응대: 사과 + 전체 맵 제공

  • 사용자(투자 문의)가 불만 제기하면 우선 사과하고(간단한 인정), 관련 섹터·대표종목·핵심 논거를 체계적으로 정리해 제공함 — 감정 진정 + 정보 제공 병행
  • 태그: 고객응대, 정보정리

  • 🔄 [개선] 자동화 + 테스트 병행(스크립트→유닛/통합 테스트)

  • recovery 리포트 자동화 스크립트 작성과 동시에 recovery_collector 유닛/통합 테스트를 작성하여 자동화 신뢰도를 확보하는 워크플로우로 개선
  • 태그: 테스트통합, 자동화

  • ⚖️ [판단] 로컬 툴 설정도 문서·옵션 확인으로 보완

  • Codex CLI가 모델 오버라이드(-m/--model, config.toml)를 지원함을 확인하여, 외부 모델 공개 여부와 별개로 로컬 설정으로 대응 가능하다고 판단함 — 외부 공개 vs 내부 구성 가능성 비교 기준
  • 태그: 운영정책, 대응전략

2026-03-19

  • 🔧 [해결] 체리픽(선택적 도입)으로 불필요한 범위 줄이기
  • OMC 전면 도입 대신 도메인에 맞는 핵심 3가지만 골라 체리픽하여 구현(모델별 에이전트 분리, learner 패턴 추출, preemptive-compaction). 범위 축소로 개발비용과 혼선을 줄임.
  • 태그: 범위관리, 우선순위, OMC

  • ⚖️ [판단] 도메인 적합성에 따라 기술 도입 여부 결정

  • 새 기법이나 프레임워크는 '도메인 적합성'을 기준으로 전체 도입 vs 부분 적용을 판단함(코드 개발 전문이면 OMC 전체 도입 불필요 → 체리픽).
  • 태그: 의사결정, 도메인적합성

  • 💡 [발견] 모델 라우팅을 역할별로 나누면 효율 증가

  • 3단계 모델 라우팅(심층 판단용 Opus / 분석·디버깅용 Sonnet / 빠른 실행용 Haiku)을 적용해 각 모델의 강점을 살리고 호출 효율과 응답속도 최적화.
  • 태그: 모델배치, 성능최적화

  • 🔄 [개선] 프리엠티브 컴팩션으로 프롬프트 관리

  • preemptive-compaction 훅을 도입해 프롬프트 총량을 관리하고 LLM 호출 비용·지연을 낮춤(large prompt -> 사전압축 처리).
  • 태그: 프롬프트관리, 비용절감, 성능

  • 🔧 [해결] 에이전트 증설로 역할 분리

  • 기존 에이전트 8개에서 12개로 늘려 책임을 세분화(예: analyst, report-writer, pipeline-debugger-deep, cron-doctor-deep)하여 각 작업의 전문성·병렬처리 향상.
  • 태그: 아키텍처, 스케일링

  • 📚 [교훈] 문서 확인 후 주장 수정하기

  • 초기에는 gpt-5.4-mini 공개 확인 불가로 판단했다가 공식 문서를 재검토해 정정함 — 외부 문서/공식 소스 확인을 최우선으로 해야 함.
  • 태그: 검증, 실수교정

  • 💡 [발견] LLM 호출 통계로 모델별 적합성 파악

  • 모델별 호출 수·성공률·레이턴시 로그를 통해 각 모델의 실사용 특성(예: sonnet 낮은 레이턴시, gpt-5-mini 실패 사례)을 확인하고 라우팅 정책에 반영함.
  • 태그: 모니터링, 데이터기반결정

  • 🔧 [해결] 자동화 스크립트+유닛테스트 병행으로 신뢰도 확보

  • recovery 리포트 자동화 스크립트 작성과 recovery_collector 유닛/통합 테스트를 병행하여 자동화의 안전성과 회복력을 높임.
  • 태그: 테스트, 자동화, 신뢰성