‘안전 최우선’ 앤트로픽, 경쟁 압박에 결국 정책 완화
||2026.02.25
||2026.02.25
인공지능(AI) 안전성을 강조해 온 ‘오픈AI 대항마’ 앤트로픽이 안전 기조를 완화하고 나섰다. 높은 수준의 안전성을 고수하다가 경쟁에서 뒤처질 수 있다는 이유에서다.
앤트로픽은 24일(현지시각) 홈페이지에 공개한 ‘책임 있는 확장 정책(Responsible Scaling Policy) 3.0’에서 핵심 안전 조치를 완화한다고 밝혔다. 이전에는 앤트로픽의 AI 모델이 위험할 수 있다고 분류될 가능성이 있으면 개발을 중단했지만, 경쟁사가 유사하거나 더 뛰어난 모델을 먼저 출시할 경우 개발 중단 조치를 적용하지 않기로 했다.
이는 지난 2023년 9월 발표한 정책과 비교하면 큰 방향 전환이라고 월스트리트저널(WSJ)은 평가했다. 당시 앤트로픽이 발표한 모델 개발과 테스트 가이드라인은 회사를 업계에서 가장 안전을 중시하는 기업 중 하나로 자리매김하게 했다.
앤트로픽은 오픈AI, 구글, 일론 머스크 테슬라 최고경영자(CEO)의 xAI 등 미국 경쟁사는 물론, 중국 AI 기업들과도 경쟁하고 있다. AI 기업들은 올해 들어 최첨단 AI 모델을 연달아 선보이고 있다.
최근에는 미국 국방부와 자사 AI 모델 ‘클로드’의 군사적 활용 범위를 두고 갈등을 빚고 있다. 피트 헤그세스 미 국방장관은 앤트로픽이 27일까지 국방부 요구에 동의하지 않을 경우 국방부 계약을 잃거나 ‘공급망 위험’ 업체 지정이나 국방물자생산법(DPA) 적용 등의 불이익을 받을 수 있다고 통보했다.
앤트로픽은 이번 안전 정책 변경이 AI 발전 속도와 연방 차원의 AI 규제 부재를 반영한 것이라고 설명했다. 회사는 “지난 3년간 AI 역량이 빠른 속도로 발전했음에도 AI 안전에 관한 정부 대응은 느렸다”라며 “정책 환경이 AI 경쟁력과 경제 성장 우선으로 이동했고, 안전 중심 논의는 연방 차원에서 아직 의미 있는 진전을 이루지 못했다”고 했다. 그러면서도 업계 최고 수준의 안전 기준을 유지하겠다고 강조했다.
앤트로픽은 이번 결정이 미 국방부 협상과는 무관하다고 덧붙였다.


1
2
3
4
5