"AI로 정보수집, 표적 선별, 더 많은 작전, 더 신속 수행"
AI 표적 오류 다수, 민간인 사상자 증가...책임 소재, 전쟁윤리 문제 발생
|
2023년 10월 7일 하마스의 기습으로 시작된 이스라엘군의 가자지구에 대한 공격 이후 미국 마이크로소프트(MS)의 애저(Azure)와 오픈AI 기술 사용량이 이전보다 200배 가까이 급증했고, 데이터 저장 공간이 크게 확장되면서 군이 더 많은 작전을 더 빠른 속도로 수행할 수 있었지만, 민간인 사상자가 증가하면서 AI의 정확성과 윤리적 영향에 대한 의문에 제기됐다는 것이다.
이스라엘군은 AI를 사용해 감청된 통신·감시 등 방대한 정보 데이터를 선별해 표적을 찾아내 공격했는데, 여기에는 무장단체의 가족 관계나 통신 패턴 등 다양한 기준에 따라 잠재적 표적을 분류해 순위를 매기는 데 도움을 주는 '복음(Gospel)'과 '라벤더(Lavender)'라는 AI 시스템도 포함돼 있다고 AP는 전했다.
|
이스라엘은 초기 애저를 통해 접근할 수 있는 오픈AI 모델을 군사적 목적으로 사용하는 것을 금지하는 정책이었지만, 지금은 국가안보 목적 이용을 허용하고 있다.
구글과 아마존은 이스라엘이 자체 AI 기반 표적 시스템을 시험한 2021년 12억달러(1조7300억원) 규모의 계약인 '프로젝트 님버스(Nimbus)'에 따라 이스라엘군에 클라우드 컴퓨팅과 AI 서비스를 제공하고 있다.
하지만 전쟁에서 상업용 AI 사용하면 AI 시스템의 잘못된 데이터, 결함이 있는 알고리즘, 오역, 단순한 오인 등으로 인한 표적 오류와 같은 의도하지 않은 결과가 발생할 수 있다는 우려가 제기되는데, 이는 신속한 의사 결정이 요구되는 전쟁 상황에서 인간의 감독에 어려움이 있기 때문에 이러한 우려는 더욱 커진다고 AP는 전했다. 그러면서 레바논에서 10대 세 자매와 할머니가 희생된 비극적인 사건 등 AI가 민간인 사망에 기여했을 수 있는 다수의 사례를 제시했다.
이스라엘군은 AI가 제안한 모든 공격을 사람이 검토한다고 주장하지만, AI를 통해 처리되는 표적의 양이 방대해지면 이러한 감독의 질이 떨어질 수 있으며 AI에 의해 촉진된 결정에 대한 책임에 대한 윤리적 우려가 발생할 수 있다고 AP는 지적했다.
그럼에도 오픈AI와 구글은 최근 서비스 약관을 변경해 국가안보에 AI를 적용할 수 있도록 허용했다.
이에 미국 기술기업 직원들이 AI의 군사적 활용에 반대하는 시위를 벌이기도 했는데, MS는 팔레스타인 난민을 위한 집회를 조직했다는 이유로, 구글은 이스라엘군을 지원하는 기술에 항의했다는 이유로 각각 직원들을 해고했다고 통신은 전했다.
AP는 이스라엘군의 AI 활용이 전 세계적으로 AI가 군사 전략의 중심이 되는 선례가 될 수 있다며 전투에서 AI 사용을 규제하기 위한 엄격한 윤리적 지침과 국제법이 필요하다고 강조했다.