SK쉴더스, 생성형AI 취약점 진단 가이드 발간
프롬프트 인젝션, API 변조 등 신종 공격 사례 다룬 취약점 진단 가이드 발간
AI 보안 문제 예방, 신뢰할 수 있는 AI 시스템 구축에 실질적 도움

SK쉴더스 CI(사진=SK쉴더스 제공) *재판매 및 DB 금지
[서울=뉴시스]송혜리 기자 = SK쉴더스는 인공지능(AI) 보안 위협에 선제적으로 대응하기 위해 거대언어모델(LLM) 애플리케이션 취약점 진단 가이드를 발간했다고 8일 밝혔다.
LLM 기반 애플리케이션은 자연어 처리와 생성에 특화된 대규모 언어 모델을 활용하며, 금융, 제조, 헬스케어 등 다양한 산업에서 사용되고 있다. 대표적으로 오픈 AI의 챗GPT와 구글의 제미나이 등이 있다. 하지만 이 애플리케이션들은 데이터 및 사용자 입력 처리 방식의 독특한 특성으로 인해 기존 IT시스템과 다른 보안 위협에 취약해 철저한 대비가 필요하다.
앞서 SK쉴더스는 올해 주요 보안 위협 중 하나로 AI 기반의 해킹 증가를 꼽으며, 특히 소규모 언어 모델(sLLM)을 겨냥한 해킹과 LLM의 구조적 취약점을 악용한 데이터 조작 및 유출 공격이 심화될 것으로 내다봤다.
이러한 위협에 대응하기 위해 발간된 이번 가이드는 LLM 통합, 에이전트, 모델의 세 가지 핵심 영역의 보안 이슈를 다루고 있다. 특히 14개의 주요 취약점을 위험도에 따라 3단계로 분류해 점검 방법과 대응 방안을 제시하고 있다.
김병무 SK쉴더스 사이버보안부문장(부사장)은 "AI 기술은 편리함을 제공하지만 기술적 불안정으로 인해 보안 취약점이 악용될 경우 심각한 해킹 사고가 발생할 수 있다"며 "이번 가이드는 기업과 기관이 직면할 수 있는 AI 보안 문제를 사전에 예방함과 동시에, 신뢰할 수 있는 AI 시스템을 구축하는 데 실질적 도움을 줄 것으로 기대된다"고 밝혔다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지





























