미 국방부는 앤쓰로픽에 “국가 안보에 필수 불가결한 자산”이라며 코로나시국 국가가 마스크 생산을 밀어붙이듯 국방물자생산법 발동까지 위협했지만, 서명을 거부하자 하루아침에 “국가 안보를 위협하는 공급망 위험”으로 규정했다. 필수와 위험이라는 두 낙인이 같은 날 같은 기업을 향해 동시에 찍혔다. 이 모순 속에서 우리 시대의 가장 근본적인 질문이 떠오른다. AI의 방아쇠를 누가 당길 것인가, 그리고 그것을 결정하는 권한은 과연 누구에게 있는가.

미국 시민에 대한 대규모 감시 시스템 구축에 클로드를 활용할 수 있어야 하고, 인간의 개입 없이 표적을 선정하고 공격하는 완전 자율 살상 무기 시스템에도 클로드가 관여할 수 있어야 한다는 것이었는데, 앤쓰로픽은 이 두 가지를 거부했다.
현행법이 허용하더라도, AI는 흩어진 개인 데이터를 자동으로 통합해 한 사람의 삶을 포괄적으로 들여다보는 도구가 될 수 있고, 현재의 AI 기술은 생사의 결정을 단독으로 내릴 만큼 충분히 성숙하지 않았다는 이유였다. 기업의 논리는 ‘합법성’이 아니라 ‘정당성’과 ‘기술적 신뢰성’이었고, 국가의 논리는 국가 안보라는 절대 명제 앞에서 민간 기업이 군사 규칙을 통제하려는 것은 비민주적이라는 것이었다.
국방부의 조급함 뒤에는 냉혹한 현실이 있다. 2026년 1월 베네수엘라 마두로 대통령 체포 작전에서 팔란티어(Palantir) 플랫폼에 탑재된 클로드가 정보 분석과 작전 계획에 핵심적으로 활용되었다는 보도는 앤쓰로픽 내부를 뒤흔들었다. 군의 시각에서 보면 이는 첨단 AI가 실제 전장에서 얼마나 결정적인 역할을 할 수 있는지를 증명한 성공 사례였다.
동시에, 킬체인(Kill chain) ‘관찰, 판단, 결심, 타격’이 과거의 시간 단위에서 초 단위로 압축되는 현대전의 속성상, 작전 중에 민간 기업의 윤리 검토를 기다릴 수는 없다는 군의 논리도 허황된 것만은 아니다. 적의 자율 드론이 기지를 향해 날아오는 순간, 기업 CEO(최고경영자)에게 허락을 구한다는 것은 현실적으로 불가능하다.
그러나 이 현실적 논리를 인정하면서도 우리가 주목해야 할 것은 기술의 미성숙이라는 엄연한 사실이다. 최근 킹스칼리지 런던의 연구에 따르면, 여러 최첨단 AI 모델을 핵전쟁 시뮬레이션에 투입했을 때 95%의 시나리오에서 AI는 핵무기 사용을 선택했으며, 대부분의 경우 스스로 판단하고 설명한 것보다 훨씬 더 강경하고 공격적인 방향으로 사태를 몰고 갔다. AI는 상황을 더 위험하게 키우는 데는 익숙하지만 긴장을 낮추고 물러서는 데는 서툴다는 연구자들의 진단은, AI가 분쟁의 증폭제로 작동할 수 있다는 심각한 경고다.
또한 AI 모델은 환각(Hallucination)·허위 정보를 사실과 동일한 확신으로 제시하는 오류를 완전히 극복하지 못했으며, 이스라엘의 가자 표적 시스템 사례가 보여주듯 10%의 오류율은 수천 명의 생사와 직결된다. ‘의미 있는 인간 통제(Meaningful human control)’라는 개념이 초 단위의 전장에서 단 20초의 검토로 형식화되는 현실은, 기술적 진보가 윤리적 논의를 압도하는 속도의 위험을 적나라하게 드러낸다.
이 사태는 단순히 한 기업과 한 정부의 갈등이 아니며, 실리콘밸리는 분열되었다. 오픈AI는 같은 날 밤 앤쓰로픽이 블랙리스트에 오른 바로 그 순간, 대규모 감시와 완전 자율 무기에는 동의하지 않겠다는 동일한 원칙을 명시하면서도 국방부와 계약을 체결했다. 차이는 내용이 아니라 방식이었다.
앤쓰로픽은 계약서에 명시적 예외 조항을 요구했고, 오픈AI는 기존 법률이 이미 이를 규율한다는 국방부의 논리를 수용하면서 자사 모델 내에 안전장치를 내장하는 방식을 택했다. xAI는 어떤 예외 조항도 없이 ‘모든 합법적 사용’에 동의했다. 이런 움직임 속에 구글 딥마인드와 오픈AI의 직원 500명 이상이 앤쓰로픽의 결정에 연대하는 공개 서한에 서명한 것은, 기술 노동자들의 윤리적 저항이 경영진의 결정과 충돌하는 구조적 균열도 보여주고 있다.
이 균열의 핵심에는 ‘합법성’과 ‘정당성’의 간극이라는 오래된 질문이 있다. 법이 허용하는 것이 곧 옳은 것인가. 대규모 감시는 현행 미국법의 허점을 통해 상당 부분 가능하며, 자율 무기를 명시적으로 금지하는 국제 조약은 아직 존재하지 않는다. 그렇다면 AI 기업이 법의 공백을 윤리적 기준으로 메우려는 시도는 ‘비민주적 월권’인가, 아니면 제도가 따라가지 못하는 기술의 속도를 감당하는 불가피한 역할인가.
앤쓰로픽의 CEO가 지적한 역설 “어제는 공급망 위험이고 오늘은 국방물자생산법으로 강제 징발할 만큼 필수적인 자산”이라는 논리는, 국가 안보라는 명분이 얼마나 자의적으로 활용될 수 있는지를 보여주는 거울이다.
민주적 통제라는 관점에서 이 갈등은 더 복잡한 함의를 가진다. 군사적 권한은 전통적으로 민주적 정당성을 가진 국가의 전유물이었다. 그런데 현대전의 두뇌 역할을 하는 AI 시스템이 민간 기업으로부터 탄생하고, 그 기업이 훈련 과정에 심어둔 가드레일이 실질적으로 작전의 범위를 규정하는 상황이 되었다.
국방부 관료가 합법적 명령을 내렸음에도 민간 기업의 알고리즘이 이를 거부하는 시대가 온 것이다. 선출되지 않은 기업인이 국가 안보 결정에 거부권을 행사한다는 비판은 타당한 측면이 있다. 동시에, 인류 생사를 가를 통제권이 투명한 민주적 절차가 아니라 밀실의 관료와 억만장자 CEO 사이에서 결정된다는 우려도 무겁게 받아들여야 한다. 어느 한쪽의 독점적 통제도 위험하다는 것이 이 사태의 가장 중요한 교훈이다.
해결의 실마리는 가드레일의 존재 여부가 아니라 가드레일의 설계 주체와 방식에 있다. 민간용 AI와 군사용 AI에 동일한 안전장치가 적용될 수는 없다. 그러나 군사용이라는 이유로 모든 안전장치가 제거되어야 한다는 논리 역시 받아들일 수 없다.
필요한 것은 기업의 기술적 가드레일, 정부의 법적 감독, 의회의 민주적 견제, 그리고 국제 규범의 보편적 기준이 중첩되는 다층적 거버넌스 체계다. 법률이 허용하는 것과 기술이 가능하게 하는 것의 경계에서 인간의 판단이 최종 결정권을 가져야 한다는 원칙, 그리고 그 원칙을 제도적으로 뒷받침하는 독립적인 감독 메커니즘의 구축이 시급하다.
만약 국가 안보라는 명분 아래 기업들이 차례로 윤리적 안전장치를 해제한다면, 그렇게 길들여진 AI가 전장에서 민간 영역으로 흘러 들어왔을 때 우리의 일상은 어떻게 될 것인가. ‘AI의 방아쇠를 누가 당길 것인가’라는 질문은, 궁극적으로 어떤 세계에서 살 것인가라는 질문과 다르지 않으며, 그 답을 밀실의 협상이 아니라 열린 민주적 논의를 통해 찾아야 할 시간이 지금이다.
※외부필자의 칼럼은 본지의 편집방향과 다를 수 있습니다.
최윤석 마이크로소프트 Tech PM