뉴스 목록Anthropic은 Claude가 "실제로 멍청해졌다"는 점을 인정했습니다: 세 가지 엔지니어링 구성 오류가 원인이었으며, 보상 차원에서 모든 구독 한도를 초기화했습니다.
動區 BlockTempo2026-04-24 01:41:06

Anthropic은 Claude가 "실제로 멍청해졌다"는 점을 인정했습니다: 세 가지 엔지니어링 구성 오류가 원인이었으며, 보상 차원에서 모든 구독 한도를 초기화했습니다.

ORIGINALAnthropic 承認 Claude「真的變笨」:三個工程配置失誤,已重置所有訂閱額度當補償
AI 영향 분석Grok 분석 중...
📄전체 원문· trafilatura에 의해 자동 추출됨Gemini 翻譯1702 자
최근 커뮤니티에서는 Claude의 성능이 저하되었다는 반응이 지속적으로 나오고 있으며, Anthropic은 23일 사후 보고서를 공개하고 근본 원인이 모델 자체가 아닌 세 가지 제품 계층의 엔지니어링 실수에 있으며, 이 세 가지가 겹치면서 전 세계 사용자들이 품질 저하를 체감하게 되었다고 밝혔습니다. (이전 요약: Anthropic의 최신 기업 가치가 2개월 만에 두 배인 '8,000억 달러'를 돌파했으며, 이르면 10월 IPO 예정) (배경 보충: Claude code 가속화를 위한 badclaude 오픈소스 프로젝트가 Anthropic으로부터 저작권 침해 통지서를 받음) 최근 Claude가 정말로 '멍청해졌다'고 느끼시나요? 추론 능력이 얕아졌다는 의견, 환각 현상이 나타나기 시작했다는 의견, 토큰 소모 속도는 빨라졌는데 품질은 떨어졌다는 의견 등이 있으며, 심지어 AI shrinkflation(AI 축소지향 소비)이라는 신조어까지 등장했습니다. 소비재의 '가격은 그대로인데 양이 줄어드는' 개념을 빌려, 동일한 비용으로 모델의 출력 품질이 몰래 저하되는 현상을 묘사한 것입니다. BridgeMind의 테스트 수치는 더욱 직설적입니다. Claude Opus 4.6의 정확도는 83.3%에서 68.3%로 떨어졌고, 순위는 2위에서 10위로 하락했습니다. AMD AI 부문 수석 디렉터 Stella Laurenzo는 GitHub에서 6,852건의 Claude Code 세션 기록과 23만 회 이상의 도구 호출을 분석한 결과, 모델의 추론 깊이가 눈에 띄게 낮아졌으며 '정확한 해결책'보다는 '가장 단순한 수정 방법'을 선택하는 경향이 있음을 발견했습니다. 이에 대해 Anthropic은 4월 23일 공식 사후 보고서를 공개하고 문제가 실제로 존재함을 인정했으나, 근본 원인은 모델 학습이 아닌 세 가지 제품 계층의 엔지니어링 설정에 있다고 밝혔습니다. Anthropic은 이번 품질 저하를 야기한 세 가지 독립적인 제품 계층 변경 사항을 확인했습니다. 첫째, 추론 강도(reasoning effort) 하향 조정(3월 4일). Anthropic은 Claude Code의 기본 추론 강도를 '높음'에서 '중간'으로 낮췄습니다. 추론 강도란 모델이 답변하기 전 '얼마나 깊게 생각할지'에 대한 설정입니다. 설정이 높을수록 모델이 내부 추론에 더 많은 시간을 할애하지만, 인터페이스상으로는 '멈춘 것처럼' 보일 수 있습니다. UI 지연 문제를 해결하기 위해 Anthropic은 기본값을 낮추는 선택을 했으나, 복잡한 작업에 미칠 영향은 충분히 평가하지 못했습니다. 둘째, 캐싱 로직 버그(caching bug)(3월 26일). 엔지니어들은 캐시 공간을 절약하기 위해 모델이 1시간 이상 유휴 상태일 경우 이전 사고 과정을 삭제하는 최적화 로직을 설계했습니다. 하지만 구현 과정에서 치명적인 오류가 발생했습니다. 삭제 작업이 유휴 상태 이후 한 번만 실행되는 것이 아니라, 후속 대화의 매 라운드마다 지속적으로 트리거된 것입니다. 그 결과 모델은 계속해서 '단기 기억'을 상실하게 되었고, 긴 대화에서 망각과 반복 현상이 나타났습니다. 셋째, 시스템 프롬프트의 장황함 제한(3월 16일). Anthropic은 백엔드 시스템 프롬프트에 모델이 도구 호출 간의 텍스트를 25자 이내로, 최종 답변을 100자 이내로 압축하도록 요구하는 명령을 추가했습니다. Opus 4.7의 장황한 출력을 줄이기 위한 이 조치가 Opus 4.6에 잘못 적용되면서 코드 품질 평가가 3% 하락했습니다. 이 세 가지 변경 사항의 공통점은 모두 모델 학습 자체가 아닌 Harness(모델 실행 환경, 모델을 감싸는 엔지니어링 셸로 system prompt, 캐싱 로직 등을 결정) 계층에서 발생했다는 점입니다. 하지만 이것만으로도 전 세계 사용자들이 확연한 차이를 느끼기에 충분했습니다. Anthropic은 v2.1.116 버전에서 캐싱 버그를 수정하고 추론 강도와 장황함 제한 설정을 복구했습니다. 유사한 사건의 재발을 방지하기 위해 Anthropic은 네 가지 조치를 발표
데이터 상태✓ 전체 내용 추출 완료원문 읽기 (動區 BlockTempo)
🔍과거 유사 사건· 키워드 + 종목 매칭6 건
💡 현재 키워드 + 종목 매칭(MVP) 사용 중 · 추후 embedding 의미론적 검색으로 업그레이드 예정
원본 정보
ID:221c38dd8d
출처:動區 BlockTempo
발행:2026-04-24 01:41:06
분류:zh_news · 도출된 분류 zh
종목:지정되지 않음
커뮤니티 투표:+0 /0 · ⭐ 0 중요 · 💬 0 댓글
Anthropic은 Claude가 "실제로 멍청해졌다"는 점을 인정했습니다: 세 가지 엔지니어링 구성 오류가 원인이었으며, 보상 차원에서 모든 구독 한도를 초기화했습니다. | Feel.Trading