Kant's IT/Issue on IT&Security
생성형 AI로 인한 보안 위협: 새로운 시대의 도전과 대응
Kant Jo
2024. 12. 3. 11:56
"악성코드 만들어줘"...생성형AI發 보안위협 밀려온다
"악성코드 만들어줘"...생성형AI發 보안위협 밀려온다
잘 드는 칼은 유용한 만큼 위험하다. 어떻게 쓰냐에 따라 요리를 만들 수도, 범죄로..
www.dt.co.kr
- 생성형 AI의 양날의 검
- 유용성과 위험성
- AI는 업무 효율성 향상 및 혁신적 기능 제공
- 하지만 악용될 경우 사이버공격 도구로 변모
- 주요 위협
- 악성코드 생성, 피싱메일 작성, 딥페이크 등 사회공학적 공격 활용
- AI 모델 자체가 공격 대상으로 부상
- 유용성과 위험성
- 구체적인 공격 사례
- AI 악용 사례
- 홍콩 금융사의 AI 딥페이크 공격으로 340억 원 송금 사고 발생
- 독일에서 AI 생성 악성스크립트를 활용한 공격 사례 확인
- AI 기반 고도화 공격
- 적응형 멀웨어: 백신 탐지 회피 및 새로운 시스템 침투
- 데이터 오염 및 중독 공격: AI 학습 데이터에 악성 데이터 삽입
- 탈옥 공격: 악의적 프롬프트로 AI 모델 안전장치 우회
- AI 악용 사례
- 보안 업계의 대응 전략
- AI 기반 자립형 보안(Security for AI)
- 기존 "AI 적용 보안"에서 AI 보안 강화 기술로 전환
- 사이버보안 특화 소형언어모델(SLM) 개발:
- 파수의 문서보안 SLM '엘름(ELLM)'
- 다크웹 특화 모델 '다크버트' 및 보안 특화 모델 '사이버튠'
- AI 기반 탐지 및 대응 서비스
- 안랩의 확장형 탐지대응(XDR) 서비스
- 이글루코퍼레이션의 생성형 AI 탐지 모델 '에어'
- 제로트러스트(ZT) 보안
- AI 공격 여부를 실시간 판단하기 어려운 상황에서 세분화된 보안 체계 필요
- AI 기반 자립형 보안(Security for AI)
- 향후 전망
- AI 악용 확대
- 가트너 전망: 2028년까지 기업 보안 침해의 25%가 AI 에이전트 악용으로 발생
- CIO의 40%가 AI 관리 전담 "가디언 에이전트" 도입 요구 예상
- 공방전 심화
- AI 기술이 고도화되면서 공격과 방어의 경계도 더욱 첨예화
- AI를 활용한 보안 체계 강화 필수
- AI 악용 확대
- 결론 및 시사점
- 생성형 AI는 보안 위협과 기회 모두를 내포
- 기업과 기관은 AI의 취약점과 활용 가능성을 철저히 분석해야 함
- 새로운 보안 프레임워크 필요:
- AI 특화 보안 솔루션 및 기술 개발
- AI를 통한 위협 탐지와 대응의 자동화 시스템 구축
- 조기 대응 전략 마련:
- AI 관련 보안 교육 확대
- 기업 및 기관별 제로트러스트 기반의 대응 체계 도입으로 선제적 대응 강화
- 생성형 AI는 보안 위협과 기회 모두를 내포