|
요미우리신문은 4일 일본 정부가 행정기관용 생성AI 시스템을 해외 정부에 판매하는 방침을 굳혔다고 보도했다. 마쓰모토 히사시 디지털상은 5일 벨기에 브뤼셀에서 열리는 일·EU 디지털 파트너십 각료급 회의에 참석한 뒤 이 방침을 표명할 예정이다. 일본 정부는 동남아시아를 중심으로 현지 언어와 가치관에 맞춘 자국제 AI 개발을 지원하고, 일본 기업이 관련 시스템 개발에 참여하도록 뒷받침할 계획이다.
핵심은 일본 디지털청이 개발한 행정용 생성AI 시스템 '거버먼트 AI·겐나이(源内)'다. 디지털청은 이를 "정부 직원이 안전·안심하게 AI를 활용할 수 있는 기반"으로 설명하고 있다. 이 시스템은 행정 직원이 대규모 데이터를 바탕으로 정보를 정리하고, 국회 답변 작성을 지원하는 기능 등을 갖췄다. 경찰청과 연계해 이른바 '어둠 바이트' 모집으로 의심되는 게시물을 선별하는 기능도 개발됐다.
◇행정 AI도 미중일 경쟁…핵심은 데이터 보호와 신뢰
겐나이의 특징은 AI 애플리케이션과 연계하면서도 기밀성이 있는 행정 데이터를 AI 모델에 직접 학습시키지 않고 참조만 하도록 설계했다는 점이다. 행정 문서와 정책 자료를 AI가 활용하되, 민감한 정부 데이터가 외부 모델 학습에 흘러 들어가는 것을 막는 구조다. 디지털청은 2026년도 중 전 부처 약 18만명의 정부 직원을 대상으로 대규모 실증을 실시할 예정이며, 지난 4월 24일에는 겐나이 일부를 상업적 이용이 가능한 오픈소스 소프트웨어로 공개했다고 밝혔다.
이번 해외 전개는 단순한 행정 효율화 수출이 아니다. 생성AI가 공공부문에 들어오면서 각국 정부는 두 가지 문제에 직면했다. 하나는 행정 업무를 얼마나 빠르게 자동화할 것인가이고, 다른 하나는 국가 데이터와 여론 공간을 어떻게 지킬 것인가이다. 특히 동남아시아 등 신흥국에서는 중국산 AI와 플랫폼이 빠르게 확산되면서, 현지 언어 데이터와 행정 정보가 특정 국가의 기술 생태계에 종속될 수 있다는 우려가 커지고 있다.
한국에서도 같은 문제가 이미 현실화하고 있다. 최근 개인정보 유출과 중국발 AI 서비스의 데이터 처리 문제, 딥페이크와 허위정보 확산 우려가 겹치면서 생성AI를 단순한 편의 기술로만 볼 수 없다는 인식이 커지고 있다. 기업과 개인이 AI를 쓰는 단계에서는 생산성 문제가 중심이지만, 정부와 공공기관이 AI를 쓰는 단계에서는 행정 데이터, 국민 개인정보, 선거 여론, 치안 정보까지 걸린다. 일본이 '안전한 행정 AI'를 내세우는 이유도 여기에 있다.
◇韓, 개인정보 보호·행정 효율화·AI산업 육성을 한 국가전략으로 묶어야
일본 정부는 2023년 주요 7개국(G7) 정상회의 당시 주도한 '히로시마 AI 프로세스'를 외교적 자산으로 활용하고 있다. 이 틀은 안전하고, 보안성이 있으며, 신뢰할 수 있는 AI를 확산시키는 것을 목표로 한다. 경제협력개발기구(OECD)도 히로시마 AI 프로세스가 생성AI의 안전성, 품질관리, 신뢰 구축을 위한 국제적 논의의 기반이 됐다고 설명했다.
한국에 주는 시사점은 분명하다. 첫째, 공공부문 AI는 단순히 업무 효율화 차원이 아니라 국가 데이터 주권의 문제다. 둘째, 외국산 범용 AI를 행정에 그대로 들여오는 방식은 개인정보와 정책 기밀 관리 측면에서 위험을 동반한다. 셋째, 한국도 한국어와 국내 법제, 행정 문화에 맞춘 공공 AI 기반을 서둘러 정비해야 한다.
일본의 이번 구상은 'AI를 누가 더 잘 쓰느냐'의 경쟁을 넘어 '누구의 AI 생태계에 들어갈 것이냐'의 경쟁을 보여준다. 중국산 AI에 대한 불안이 커지는 상황에서 일본은 안전성과 신뢰를 무기로 신흥국 공공 AI 시장을 선점하려 한다. 한국 역시 개인정보 보호와 행정 효율화, AI 산업 육성을 따로 볼 것이 아니라 하나의 국가 전략으로 묶어야 할 시점이다.










