GhostGPT - Jailbreaked ChatGPT that Creates Malware & Exploits
- 개요
- GhostGPT는 기존 ChatGPT의 윤리적 제한과 보안 프로토콜을 제거한 탈옥된(Jailbreaked) 챗봇
- 악성 코드 제작, 피싱 공격, 보안 취약점 악용 등의 기능을 제공하여 사이버 범죄자들에게 새로운 도구로 활용됨
- Telegram을 통해 판매되며, 로그를 저장하지 않는 ‘No Logs’ 정책으로 익명성을 강조
- GhostGPT의 주요 특징
- 빠른 응답 처리: 악성 코드 및 기술적 익스플로잇(Exploit)을 신속하게 생성 가능
- 로그 미저장: 사용자 활동이 기록되지 않아 익명성이 보장됨
- 간편한 접근성: Telegram을 통해 즉시 구매 및 사용 가능하며 별도의 기술적 조작 없이 실행 가능
- 공격자들이 GhostGPT를 활용하는 방법
- 악성코드 개발: 다양한 유형의 멀웨어(Malware) 및 바이러스 생성 및 수정 가능
- 피싱 캠페인: 기업 이메일 침해(BEC) 공격을 위한 설득력 있는 피싱 이메일 자동 생성
- 보안 취약점 악용: 소프트웨어 및 시스템의 보안 취약점 탐색 및 악용 지원
- 소셜 엔지니어링: 인간의 심리를 악용하여 보안 인증 정보를 탈취하는 공격 설계
- 실제 테스트 사례
- Abnormal Security 연구진이 GhostGPT에 DocuSign 피싱 이메일 작성을 요청한 결과, 신뢰성을 높인 정교한 이메일 템플릿이 생성됨
- 이처럼 AI가 자동으로 해킹 공격을 지원하면서 초보적인 해커도 손쉽게 사이버 범죄를 시도할 수 있게 됨
- GhostGPT가 초래하는 보안 위협
- 사이버 범죄의 진입 장벽 하락: 기술적 지식이 부족한 공격자도 간단한 설정만으로 해킹 공격 가능
- 범죄자들의 공격 역량 강화: 악성 코드 개발 및 보안 취약점 공격을 자동화하여 공격 속도 증가
- AI 기반 사이버 범죄 증가: GhostGPT와 같은 탈옥된 AI 챗봇이 다크웹 및 해킹 포럼에서 인기를 끌면서 AI를 활용한 범죄가 확산될 가능성 높음
- 보안 권고
- AI 챗봇의 윤리적 사용 규제 강화: 정부 및 사이버 보안 기관이 AI 기술의 남용을 방지할 수 있도록 새로운 법률과 정책 도입 필요
- AI 개발사의 보안 강화: AI 모델 내 보안 제한을 우회하는 행위를 감지하고 차단하는 기술 도입 필요
- 사용자 교육 및 인식 제고: AI 기반 피싱 및 악성 코드의 위협을 경고하고, 보안 수칙 준수 중요성 강조
- AI 남용 탐지 시스템 도입: 사이버 보안 기업들이 AI 악용을 감지하는 시스템을 구축하고 실시간 대응 체계 강화
- 결론
- GhostGPT는 AI 기술이 사이버 범죄에 악용될 수 있음을 보여주는 대표적인 사례
- 사이버 보안 및 정책 입안자들은 AI 챗봇의 오남용을 방지하기 위한 적극적인 규제와 대응책 마련이 시급함
- AI는 혁신적인 기술이지만, 보안 관리가 미흡하면 범죄자들에게 강력한 무기가 될 수 있음
'Kant's IT > Issue on IT&Security' 카테고리의 다른 글
토스 ‘얼굴 패스’ 사업과 개인정보위의 사전적정성 검토 (0) | 2025.01.31 |
---|---|
TRIPLESTRENGTH 그룹, 클라우드 크립토재킹 및 온프레미스 랜섬웨어 공격 수행 (0) | 2025.01.31 |
크롬 확장 프로그램을 노린 공급망 공격, 악성 코드 삽입 확인 (0) | 2025.01.31 |
QakBot 기반 BC 악성코드, 원격 접근 및 데이터 수집 기능 강화 (0) | 2025.01.31 |
macOS 사용자 대상 Homebrew 위장 악성코드 유포 캠페인 발견 (0) | 2025.01.31 |