• 아시아투데이 로고
AI 마약 제조·피싱 악용 우려…“AI 기술 보안 위협 대비 필요”

AI 마약 제조·피싱 악용 우려…“AI 기술 보안 위협 대비 필요”

기사승인 2024. 07. 02. 12:00
  • 페이스북 공유하기
  • 트위터 공유하기
  • 카카오톡 링크
  • 주소복사
  • 기사듣기실행 기사듣기중지
  • 글자사이즈
  • 기사프린트
SK쉴더스, 2024년 상반기 보안 트렌드 세미나' 개최
1
이재우 SK쉴더스 이큐스트 사업그룹장이 2일 서울 중구에 있는 페럼타워에서 열린 '2024년 상반기 보안 트렌드 세미나'에서 올해 상반기 주요 보안 이슈에 대해 설명하고 있다./사진=오세은 기자
올해 상반기에는 네트워크 장비의 신규 취약점을 활용한 공격이 성행했는데 작년 동기에 비해 2배 이상 증가한 것으로 나타났다.

SK쉴더스는 2일 서울 중구에 있는 페럼타워에서 '2024년 상반기 보안 트렌드 세미나'를 개최했다. 이날 발표는 SK쉴더스 화이트해커 전문가 그룹 이큐스트(EQST)가 올 상반기에 해킹 사고 사례와 연구 결과를 분석한 내용을 바탕으로 진행됐다. 특히 거대언어모델(AI LLM)의 취약점을 이용한 공격을 시연하고 보안 대책을 발표했다.

이큐스트에 따르면 가상자산 탈취, 딥페이크 해킹 공격 등이 올 상반기에 화제가 됐다. 이큐스트가 분석한 업종별 침해사고 발생 통계를 보면 국내에서는 금융업을 대상으로 한 침해사고가 20.6%로 가장 높은 비중을 차지했다. 비트코인 상장지수펀드(ETF) 승인 등의 이슈로 가상자산의 가치가 상승해 이를 노린 해킹 공격이 지속됐다. 국외에서는 러시아 등 국제 분쟁으로 인해 정부와 공공기관을 대상으로 한 공격이 26.7%로 가장 높은 순위를 차지했다. 유형별 사고 발생 통계로는 취약점 공격이 45%로 가장 많이 발생했는데 가상사설망(VPN) 등 네트워크 장비를 통한 지능형 지속 위협(APT) 공격 때문인 것으로 조사됐다. 사람의 심리를 이용해 기밀을 탈취하는 수법인 '소셜 엔지니어링' 공격이 26%로 뒤를 이었다.

이호석 SK쉴더스 이큐스 랩(Lab) 팀장은 생성형 인공지능(AI)이 급속도로 발전하며 AI가 가져올 수 있는 보안위협에 관한 연구 결과를 발표했다. 특히 비영리단체인 OWASP에서 발표한 AI LLM 서비스에서 발생 가능한 10가지의 취약점을 분석하고 이중 위험도가 높은 3가지를 시연했다. 그는 "'프롬프트 인젝션'은 악성코드 생성이나 마약 제조, 피싱 공격 등에 악용될 수 있다"며 "'두 번째로 불안전한 출력 처리' 취약점이다. 이 취약점은 LLM이 생성한 출력물을 시스템이 적절하게 처리하지 못할 때 발생하는 것으로 다른 2차 공격으로 이어질 수 있어 위험도가 높다"고 설명했다.

이 팀장은 '민감 정보 노출' 취약점을 분석하며 데이터베이스(DB) 정보를 탈취하는 공격을 시연하며 "LLM 모델을 학습시킬 때 민감 정보 필터링이 미흡한 경우 LLM이 생성하는 답변에 학습된 민감 정보가 출력될 수 있어 학습 데이터에 가명 처리를 하거나 데이터를 검증하는 등의 추가적인 보완책이 필요하다"고 강조했다.

그는 "LLM 애플리케이션에서 자주 발생하는 취약점을 LLM 서비스 운영단계, 개발단계, 모델 개발·의존 단계로 나눠 분석해 각각의 보안 대책이 있다"며 "보안 대책으로는 LLM 사용 시 '프롬프트 보안 솔루션'을 도입하거나 '데이터 정제 솔루션'을 고려해볼 수 있다. 또한 이큐스트가 제시하는 AI 서비스 보안 체크리스트를 통해 AI 서비스 개발과 사용 시 보안 위협을 점검해 볼 수 있다"고 언급했다.

김병무 SK쉴더스 정보보안사업부장(부사장)은 "AI 인프라 운영에 특화된 제로 트러스트 환경 구축·운영 체계 수립 서비스를 제공하고 기업에서 소프트웨어 자재 명세서(SBOM) 등을 활용해 보안 이력을 관리할 수 있는 대책을 제시하는 등의 전략을 선보일 계획"이라며 "생성형 AI 시대의 보안 전략을 제시해 나가겠다"고 말했다.

1
업종별 침해 사고 통계 이미지.
후원하기 기사제보

ⓒ아시아투데이, 무단전재 및 재배포 금지


댓글