에크바리
Sunday, 22 February 2026
Breaking

앤트로픽의 '안전 우선' AI, 자율 에이전트 확장 속 펜타곤과 충돌

AI 기업이 첨단 능력에 대한 군사적 수요가 심화되면서 윤리적 갈림길에 서서 핵심 원칙을 시험받고 있습니다.

앤트로픽의 '안전 우선' AI, 자율 에이전트 확장 속 펜타곤과 충돌
7DAYES
5 hours ago
5

미국 - 이크바리 뉴스 통신사

앤트로픽의 '안전 우선' AI, 자율 에이전트 확장 속 펜타곤과 충돌

AI 분야의 선두 주자인 앤트로픽은 '안전 우선'(safety first) 원칙을 기반으로 설립되었으며, 미국 국방부(펜타곤)와의 관계에서 중요한 전환점에 서 있습니다. 가장 진보된 자율 에이전트의 최근 출시와 함께, 이러한 첨단 능력에 대한 군사적 수요가 증가하고 있으며, 이는 회사의 핵심 윤리적 약속과 글로벌 확장 전략에 심각한 도전 과제를 안겨주고 있습니다.

2월 5일, 앤트로픽은 현재까지 가장 강력한 AI 모델인 Claude Opus 4.6을 공개했습니다. 이 버전의 핵심 기능 중 하나는 복잡한 목표를 달성하기 위해 작업을 분할하고 병렬로 작업할 수 있는 여러 AI인 자율 에이전트 팀을 조정하는 능력입니다. Opus 4.6 출시 후 불과 열이틀 만에, 회사는 코딩 및 컴퓨터 관련 기술에서 Opus와 필적하는 더 비용 효율적인 모델인 Sonnet 4.6을 출시했습니다. 회사에 따르면, 2024년 말에 처음 소개된 앤트로픽의 초기 컴퓨터 제어 모델은 웹 브라우저를 간신히 조작할 수 있었던 반면, Sonnet 4.6은 이제 웹 애플리케이션을 탐색하고 양식을 작성하는 데 인간 수준의 능력을 보여주고 있습니다. 두 모델 모두 작은 도서관을 저장할 수 있을 만큼 충분히 큰 작업 메모리를 갖추고 있어 더 복잡하고 지속적인 작업을 가능하게 합니다.

현재 기업 고객은 앤트로픽 수익의 약 80%를 차지하고 있으며, 회사는 최근 300억 달러 규모의 펀딩 라운드를 3,800억 달러라는 놀라운 가치 평가로 마무리했습니다. 모든 사용 가능한 지표에 따르면, 앤트로픽은 역사상 가장 빠르게 성장하는 기술 기업 중 하나입니다. 그러나 대규모 제품 출시와 인상적인 가치 평가의 이면에는 중요한 위협이 숨어 있습니다. 펜타곤은 앤트로픽이 군사적 사용에 대한 제한을 완화하지 않으면, 일반적으로 외국 적국에 사용되는 '공급망 위험'으로 분류할 수 있음을 시사했습니다. 이러한 분류는 펜타곤 계약자들이 민감한 프로젝트에서 Claude를 제거하도록 강제할 수 있으며, 이는 중요한 방위 애플리케이션에서의 채택을 잠재적으로 방해할 수 있습니다.

긴장은 1월 3일 미국 특수 작전 부대가 베네수엘라에서 습격하여 니콜라스 마두로를 체포한 사건 이후 고조되었습니다. 월스트리트 저널의 보도에 따르면, Claude는 앤트로픽의 방위 계약업체인 팔란티르와의 파트너십을 통해 이 작전 중에 사용되었습니다. 악시오스는 또한 이 사건이 Claude의 정확한 허용 가능한 사용에 관한 이미 긴장된 협상을 더욱 악화시켰다고 보도했습니다. 앤트로픽의 한 임원이 팔란티르에 연락하여 해당 기술이 습격에 관여했는지 문의했을 때, 그 질문은 펜타곤 내에서 즉각적인 경보를 울렸다고 합니다. 앤트로픽은 해당 연락이 특정 작전에 대한 불만을 표시하기 위한 것이 아니었다고 주장했지만, 고위 행정부 관리는 악시오스에 피트 헤그세스 국방장관이 관계 단절에 "가까워지고 있다"고 말했으며, "우리는 그들이 우리를 이런 식으로 몰아붙인 대가를 치르게 할 것"이라고 덧붙였다고 전했습니다.

이 충돌은 근본적인 질문을 제기합니다. AI 재앙을 예방하기 위해 설립된 회사가 가장 강력한 도구들—방대한 데이터셋을 처리하고, 패턴을 식별하며, 결론에 따라 행동할 수 있는 자율 에이전트—이 기밀 군사 네트워크 내에서 작동하기 시작할 때 윤리적 무결성을 유지할 수 있을까요? '안전 우선' AI는 추론, 계획, 그리고 군사적 규모로 자율적으로 행동할 수 있는 시스템을 요구하는 고객과 진정으로 양립 가능할까요?

앤트로픽은 두 가지 명확한 레드라인을 설정했습니다. 미국민의 대규모 감시 금지 및 완전 자율 무기 금지입니다. CEO 다리오 아모데이는 앤트로픽이 "우리 자신을 독재적 적들과 같게 만드는 것을 제외한 모든 면에서 국가 안보를 지원할 것"이라고 말했습니다. OpenAI, Google, xAI를 포함한 다른 주요 AI 연구소들이 펜타곤의 비기밀 시스템 사용에 대한 보안 조치를 완화하기로 합의했지만, 그들의 도구는 아직 군의 기밀 네트워크 내에서 배포되지 않았습니다. 반대로 펜타곤은 AI 능력이 '모든 합법적인 목적'을 위해 사용 가능해야 한다고 주장합니다.

이 마찰은 앤트로픽의 핵심 주장을 직접적으로 시험합니다. 이 회사는 2021년, 업계가 안전을 충분히 중요하게 생각하지 않는다고 믿었던 전 OpenAI 임원들에 의해 설립되었습니다. 그들은 Claude를 윤리적으로 책임감 있는 대안으로 포지셔닝했습니다. 2024년 말, 앤트로픽은 Claude를 '비밀' 수준까지의 클라우드 보안 등급을 갖춘 팔란티르 플랫폼에서 사용할 수 있도록 하여, 공개적으로 Claude를 최초의 기밀 시스템 내 작동 AI 언어 모델로 만들었습니다.

현재의 교착 상태는 기술이 기밀 군사 작전에 통합된 후 '안전 우선'이라는 정체성이 지속 가능한지, 그리고 그러한 레드라인이 실제로 실행 가능한지에 대한 비판적인 검토를 강요합니다. 조지타운 대학 안보 및 신흥 기술 센터의 선임 연구원인 에멜리아 프로바스코는 "이 단어들은 간단해 보입니다: 미국민의 불법 감시. 하지만 그것의 본질로 들어가면, 이 문구를 어떻게 해석해야 할지 고심하는 변호사 군단이 있습니다."라고 말합니다.

역사적 맥락 또한 관련이 있습니다. 에드워드 스노든 폭로 이후, 미국 정부는 전화 메타데이터의 대량 수집—누가 누구에게 언제 얼마나 오래 전화했는지 상세히 설명하는 통화 기록—을 변호하며, 이러한 데이터는 통화 내용과 동일한 개인 정보 보호를 받지 않는다고 주장했습니다. 당시 개인 정보 보호 논쟁은 이러한 기록을 검토하는 인간 분석가들에 초점을 맞추었습니다. 이제, 방대한 데이터셋을 쿼리하고, 네트워크를 매핑하고, 패턴을 발견하고, 관심 있는 개인을 표시하는 AI 시스템을 상상해 보십시오. 기존 법률 체계는 인간 검토 시대에 설계되었으며, 기계 규모의 분석 시대를 위한 것이 아닙니다.

로봇 무기 통제 국제 위원회 공동 창립자인 피터 아사로는 "어떤 면에서는, AI에게 분석하도록 요청하는 모든 대량 데이터 수집은 정의상 대량 감시입니다."라고 말합니다. 악시오스는 고위 관리가 앤트로픽의 제한 사항 주변에 "상당한 회색 지대"가 있으며, 펜타곤이 회사와 "개별 사용 사례를 협상해야 하는 것은 비현실적"이라고 주장했다고 보도했습니다. 아사로는 이 불만에 대해 두 가지 해석을 제시합니다. 관대한 해석은 AI 시대에 감시를 정의하는 것이 실제로 불가능하다는 것을 시사하고, 비관적인 해석은 "그들은 실제로 이를 대량 감시와 자율 무기에 사용하고 싶어하며 그렇게 말하고 싶어하지 않기 때문에 회색 지대라고 부른다"는 것입니다.

앤트로픽의 두 번째 레드라인인 자율 무기—인간의 감독 없이 목표물을 선택하고 교전하는 시스템으로 좁게 정의됨—은 관리 가능한 것으로 보일 수 있습니다. 그러나 아사로는 더 불안한 회색 지대를 감지합니다. 그는 이스라엘의 "라벤더"와 "가스펠" 시스템을 지적하는데, 이 시스템들은 공격이 수행되기 전에 인간 운영자의 승인을 위해 대규모 목표물 목록을 생성하는 데 AI를 사용한다고 보고되었습니다. 아사로는 "본질적으로 표적화 요소를 자동화했습니다. 이는 우리가 매우 우려하고 있으며, 좁고 엄격한 정의를 벗어나더라도 밀접하게 관련된 것입니다."라고 설명합니다. 핵심 질문은 펜타곤의 시스템 내에서 기밀 네트워크를 통해 작동하는 Claude가, 앤트로픽이 분석 작업이 어디서 끝나고 표적화가 어디서 시작되는지 정확하게 구분할 수 없더라도 유사한 기능을 수행할 수 있는지 여부입니다.

마두로 작전은 이 구분을 위한 중요한 시험 사례입니다. 아사로는 "만약 당신이 목표물을 식별하기 위해 데이터와 정보를 수집하고 있다면, 하지만 사람들이 '좋아요, 이것이 우리가 실제로 폭격할 목표물 목록입니다'라고 결정한다면—그러면 당신은 우리가 요구하려고 하는 수준의 인간 감독을 갖게 됩니다."라고 말합니다. "다른 한편으로는, 당신은 여전히 의사 결정을 위해 시스템에 의존하게 됩니다." 이는 인간이 개입하더라도 시스템이 준-자율적이 될 가능성에 대한 우려를 제기합니다. 앤트로픽의 과제는 속도와 정확성이 가장 중요하고 정보 분석과 표적화 사이의 경계가 끊임없이 진화하는 복잡하고 위험한 군사 환경에 기술이 통합됨에 따라 레드라인이 명확하고 집행 가능하게 유지되도록 보장하는 것입니다.

Keywords: # Anthropic # Claude # AI # Pentagon # autonomous agents # AI safety # military AI # AI ethics # Palantir # AI regulation # AI policy