오픈AI가 미국 국방부와 체결한 인공지능(이하 AI) 공급 계약을 둘러싸고, 감시와 자율무기 논란이 거세게 확산하고 있습니다.
이번 계약을 이유로 오픈AI 로보틱스 책임자 케이틀린 칼리노브스키가 전격 사임하면서, 기술기업의 군사용 AI 참여를 둘러싼 윤리 논쟁이 다시 불붙는 모양새입니다.
오픈AI는 최근 자사 AI 모델을 미 국방부의 기밀 통신망에 탑재해, 군사·정보 분야 전반에 걸쳐 활용할 수 있도록 하는 계약을 맺었습니다.
회사 측은 “미국 시민에 대한 대규모 국내 감시와 완전 자율 살상 무기에는 기술을 사용하지 않겠다”는 내부 원칙을 재확인했다며, 방어·정보 분석·사이버 보안 등 ‘합법적인 목적’에 한해 협력한다고 강조하고 있습니다.
그러나 시민단체와 업계 안팎의 비판은 만만치 않습니다. 논란의 핵심은 ‘합법적인 목적’이라는 문구가 지나치게 포괄적이라는 점입니다.
법률상 직접적인 국내 감시는 제한된다 하더라도, 방대한 위치 데이터와 소셜미디어, 각종 상업 데이터베이스를 AI가 분석해 미국인을 사실상 추적·프로파일링할 수 있는 여지가 남아 있다는 우려가 제기됩니다. 또한 자율무기 관련 제한도 기존 미국 법·국방부 지침 수준을 크게 넘어서지 못해, 실제로 치명적 무력 사용에 AI가 더 깊이 관여할 수 있는 길을 열어준 것 아니냐는 지적이 나옵니다.
경쟁사 앤스로픽이 비슷한 국방부 계약에서 “미국 시민 대상 대량 감시 금지”와 “완전 자율 살상 무기 전면 금지”를 끝까지 요구하다가 결국 계약에서 밀려난 사례는 이번 사태에 더욱 기름을 부었습니다.
앤스로픽은 이 같은 안전장치를 양보할 수 없다고 못 박았고, 국방부는 해당 업체를 ‘공급망 위험’으로 지정하며 사실상 배제한 상태입니다.
이런 상황에서 오픈AI가 더 느슨한 조건으로 계약을 수주하자, “윤리적 레드라인을 지키다 탈락한 회사 대신, 규범을 후퇴시킨 회사가 자리를 차지했다”는 비판이 커지고 있습니다.
칼리노브스키의 사임은 내부 반발의 상징적인 장면으로 받아들여지고 있습니다.
그는 공개 입장문에서 “사법적 통제 없는 미국인 감시와 인간 승인 없이 lethal(치명적) 무력을 행사하는 자율 무기는 넘지 말아야 할 선”이라며, 이번 계약이 그런 선을 충분히 보장하지 못한다고 우려했습니다.
오픈AI와 구글 내부에서는 수백 명이 국방부 요구에 반대하는 공개서한에 서명했고, 디지털권리 단체들도 “애매한 문구 뒤에 숨은 AI 감시·무기화의 문을 닫지 못했다”고 비판하고 있습니다.
군사 영역에서 AI 활용은 이미 거스를 수 없는 흐름으로 평가받고 있습니다.
다만 어디까지가 정당한 방어·정보 활용이고, 어디서부터 인권과 민주주의를 침해하는 대량 감시·자율살상 무기인지에 대해 사회적 합의는 여전히 미완성입니다.
이번 오픈AI-국방부 계약과 이를 둘러싼 고위 임원의 사퇴는, 기술 기업이 군사·정보 기관과 협력할 때 어떤 윤리 기준을 세워야 하는지에 대한 논쟁을 앞으로도 더욱 가속화시킬 전망입니다.









































































