“단 20초, 개인정보 탈취→피싱메일 전송” 챗GPT…사이버범죄 악용 어쩌나
“단 20초, 개인정보 탈취→피싱메일 전송” 챗GPT…사이버범죄 악용 어쩌나
- KAIST, 챗GPT 이용한 개인정보 악용 가능성 규명 - 챗GPT 등 LLM 활용 개인정보 수집 및 피싱 공격실험 - 95.9% 정확도 개인정보 수집, 피싱 클릭률 46.67%↑ [헤럴드경제=구본혁 기자] “챗GPT가 단 20초
biz.heraldcorp.com
KAIST, 챗GPT를 이용한 개인정보 악용 가능성 규명 - 신아일보
KAIST, 챗GPT를 이용한 개인정보 악용 가능성 규명 - 신아일보
최근 인공지능 기술의 발전으로 챗GPT와 같은 대형 언어 모델(이하 LLM)은 단순한 챗봇을 넘어 자율적인 에이전트로 발전하고 있다. 구글(Google)은 최근 인공지능 기술을 무기나 감시에 활용하지
www.shinailbo.co.kr
- 연구 배경 및 목적
- KAIST 연구팀, LLM(대형 언어 모델)의 사이버 공격 악용 가능성 규명
- 실제 환경에서 LLM을 활용한 개인정보 수집 및 피싱 공격 실험 진행
- 주요 연구 결과
- LLM 에이전트를 통한 개인정보 수집 정확도 95.9%
- 피싱 이메일 생성 시 클릭률 46.67%까지 증가
- 평균 5
20초 내에 개인정보 탈취 가능, 비용은 3060원(2~4센트) 수준 - 허위 게시글 생성 실험에서 93.9%의 진짜처럼 인식되는 결과 도출
- 기존 방어 기법의 한계
- 오픈AI, 구글 AI 등 상용 LLM 서비스에 방어 기법 내장
- 그러나 실험 결과, 이러한 방어 기법을 쉽게 우회할 수 있음 확인
- 보안 위협 및 문제점
- LLM 에이전트의 자율적 사이버 공격 수행 가능성 증가
- 저명 인사 사칭, 개인정보 자동 수집 등 고도화된 공격 가능
- 빠른 공격 수행 속도 및 저비용으로 새로운 위협 요소로 부상
- 보안 권고
- LLM 에이전트의 능력을 고려한 확장 가능한 보안 장치 마련 필요
- AI 활용 보안 정책 및 가이드라인 강화
- LLM 서비스 제공업체와 연구기관 간 협력 통한 보안 대책 논의
- 사용자 대상 AI 기반 공격 인식 교육 및 피싱 메일 대응 훈련 필요
'Kant's IT > Issue on IT&Security' 카테고리의 다른 글
중국 보안업체 탑섹(TopSec) 유출 사건 (0) | 2025.03.07 |
---|---|
삼성전자 개인정보처리방침 사실관계 미반영 (0) | 2025.03.07 |
SK하이닉스 직원 개인정보 처리 논란 (0) | 2025.03.07 |
제조업 사이버 사고 급증, IT/OT 융합의 위험성 (0) | 2025.03.06 |
Microsoft 365 대상 대규모 패스워드 스프레이 공격, 130,000대 이상의 장치 활용한 봇넷 활동 (0) | 2025.03.06 |