AI, 국방과 윤리 사이에서 갈린다
구글·Anthropic의 선택이 드러낸 AI 기업의 가치 설계 분기점
왜 이 한 편인가
구글과 Anthropic의 국방부 계약 분기를 단순한 윤리 논쟁이 아니라 AI 기업의 비즈니스 모델 설계 분기점으로 읽는 각도를 선택했다. 같은 날 OpenAI 멀티클라우드 전환과 유럽 중앙은행의 탈미국 클라우드 결정이 겹쳤다는 점에서, 이 세 신호를 묶으면 AI 공급망 전체가 '신뢰 설계 경쟁'으로 재편되고 있다는 구조적 패턴이 드러난다. 국내 매체가 개별 계약 뉴스로 분리 보도하는 사이, 세 신호의 공통 구조를 하나의 흐름으로 정제하는 것이 이 기사의 근거다.
현상
AI 기업들이 국방·감시 영역에서 서로 다른 선택을 내리기 시작했다. Anthropic이 미 국방부(DoD)의 국내 대규모 감시 및 자율 무기 용도 요청을 거절한 직후, Google이 해당 계약을 수주했다(TechCrunch). 같은 날 OpenAI 모델이 Microsoft의 독점 계약 해제 하루 만에 AWS에서 판매되기 시작했고(TechCrunch), 유럽에서는 네덜란드 중앙은행이 AWS 대신 유럽산 클라우드로 전환을 결정했다(GeekNews). 세 신호가 같은 날 겹쳤다는 점이 패턴의 윤곽을 드러낸다.
해석
이 흐름의 핵심은 기술 경쟁이 아니라 가치 설계의 분기다. Anthropic이 특정 군사 용도를 거부하고 Google이 수용한 구조는, AI 기업들이 이제 기능 차별화 이전에 '무엇을 하지 않을 것인가'를 먼저 결정해야 하는 단계에 진입했음을 보여준다. OpenAI의 멀티클라우드 전환과 유럽 중앙은행의 탈(脫)미국 클라우드 움직임은 또 다른 층위를 얹는다. AI 모델 공급망이 지정학적 신뢰의 문제로 재편되고 있다는 신호다. 네덜란드 중앙은행이 Lidl 계열 클라우드를 선택한 배경에는 유럽법 준거 여부가 핵심 기준으로 작동했다. 기술 성능이 아니라 '어느 법체계 아래 데이터가 존재하는가'가 인프라 선택을 결정하는 시대다.