Kant's IT/Issue on IT&Security

LLM(대형 언어 모델) 악용을 통한 개인정보 탈취 및 피싱 공격 가능성

Kant Jo 2025. 3. 7. 06:30

“단 20초, 개인정보 탈취→피싱메일 전송” 챗GPT…사이버범죄 악용 어쩌나

 

“단 20초, 개인정보 탈취→피싱메일 전송” 챗GPT…사이버범죄 악용 어쩌나

- KAIST, 챗GPT 이용한 개인정보 악용 가능성 규명 - 챗GPT 등 LLM 활용 개인정보 수집 및 피싱 공격실험 - 95.9% 정확도 개인정보 수집, 피싱 클릭률 46.67%↑ [헤럴드경제=구본혁 기자] “챗GPT가 단 20초

biz.heraldcorp.com

 

KAIST, 챗GPT를 이용한 개인정보 악용 가능성 규명 - 신아일보

 

KAIST, 챗GPT를 이용한 개인정보 악용 가능성 규명 - 신아일보

최근 인공지능 기술의 발전으로 챗GPT와 같은 대형 언어 모델(이하 LLM)은 단순한 챗봇을 넘어 자율적인 에이전트로 발전하고 있다. 구글(Google)은 최근 인공지능 기술을 무기나 감시에 활용하지

www.shinailbo.co.kr

 

  • 연구 배경 및 목적
    • KAIST 연구팀, LLM(대형 언어 모델)의 사이버 공격 악용 가능성 규명
    • 실제 환경에서 LLM을 활용한 개인정보 수집 및 피싱 공격 실험 진행
  • 주요 연구 결과
    • LLM 에이전트를 통한 개인정보 수집 정확도 95.9%
    • 피싱 이메일 생성 시 클릭률 46.67%까지 증가
    • 평균 520초 내에 개인정보 탈취 가능, 비용은 3060원(2~4센트) 수준
    • 허위 게시글 생성 실험에서 93.9%의 진짜처럼 인식되는 결과 도출
  • 기존 방어 기법의 한계
    • 오픈AI, 구글 AI 등 상용 LLM 서비스에 방어 기법 내장
    • 그러나 실험 결과, 이러한 방어 기법을 쉽게 우회할 수 있음 확인
  • 보안 위협 및 문제점
    • LLM 에이전트의 자율적 사이버 공격 수행 가능성 증가
    • 저명 인사 사칭, 개인정보 자동 수집 등 고도화된 공격 가능
    • 빠른 공격 수행 속도 및 저비용으로 새로운 위협 요소로 부상
  • 보안 권고
    • LLM 에이전트의 능력을 고려한 확장 가능한 보안 장치 마련 필요
    • AI 활용 보안 정책 및 가이드라인 강화
    • LLM 서비스 제공업체와 연구기관 간 협력 통한 보안 대책 논의
    • 사용자 대상 AI 기반 공격 인식 교육 및 피싱 메일 대응 훈련 필요