챗GPT·클로드·제미나이에 유출된 정보 분석했더니…
직원 48%가 기업 정보 무단 입력... AI 도구로 인한 데이터 유출 실태보안 전문기업 하모닉(Harmonic)이 발표한 '생성형 AI로 유출되는 데이터 현황' 보고서에 따르면, 직원들의 생성형 AI 도구 사용 과
zdnet.co.kr
- 기업 정보 유출 실태
- 보안 기업 하모닉(Harmonic) 보고서에 따르면 직원 48%가 생성형 AI 도구에 기업 기밀 정보를 입력한 경험이 있음
- 68%의 기업이 이러한 데이터가 경쟁사 또는 대중에게 노출될 위험을 우려
- 사용된 AI 도구: 마이크로소프트 코파일럿(Microsoft Copilot), 챗GPT(ChatGPT), 구글 제미니(Google Gemini), 앤스로픽 클로드(Anthropic Claude), 퍼플렉시티(Perplexity)
- 유출된 민감정보 유형
- 고객 정보(45.7%)
- 고객 보고서(65.8%), 고객 프로필(20.9%), 결제 정보(8.9%), 신용카드 정보(1.7%), 청구 정보(2.0%), 고객 인증 데이터(0.5%)
- 직원 정보(26.8%)
- 직원 급여 정보(49.6%), 개인식별정보(49.6%), 고용 기록(0.8%)
- 법률 및 재무 데이터(14.88%)
- 영업 파이프라인(45.5%), 인수합병 정보(22.0%), 법률 문서(13.6%), 투자 포트폴리오(15.9%), 특허 정보(0.8%)
- 보안 정보(6.88%)
- 네트워크 구성(34.4%), 보안사고 보고서(31.1%), 사용자 접근 로그(16.4%), 관리 시스템 설정(8.2%)
- 민감한 코드(5.64%)
- 접근 키(82.0%), 독점 소스 코드(18.0%)
- 고객 정보(45.7%)
- AI 도구별 위험성
- 챗GPT 무료버전 사용 비율(63.8%), 제미니(58.6%), 클로드(75%), 퍼플렉시티(50.48%)
- 무료 버전 사용자 중 53.5%가 민감정보를 입력
- AI 기업들이 수집한 데이터가 학습에 사용될 가능성이 있어 기업 데이터 보안에 위협이 될 수 있음
- 기업들의 대응 현황
- 96%의 기업이 AI 거버넌스 구축 중, 82%가 데이터 유출을 우려
- 아마존, 삼성 등 일부 대기업에서도 AI 도구 사용 중 기밀정보 유출 사고 발생
- AI 보안 대응 방안
- 실시간 모니터링 시스템 구축: AI 도구 사용 시 데이터 유출 탐지
- 데이터 학습 배제 정책: 유료 버전 도입 및 기업 내 프라이빗 AI 사용 고려
- 프롬프트 가시성 확보: 입력된 데이터 모니터링 및 감시
- 민감 정보 분류 체계 적용: 입력 시점에서 자동 분류 및 차단
- 부서별 맞춤형 보안 정책 시행: 업무 특성에 따라 AI 사용 가이드라인 설정
- 직원 교육 강화: AI 사용 시 보안 위험을 이해하고 대응하도록 훈련
- 결론
- 생성형 AI 사용 증가에 따라 데이터 유출 위험이 심각한 수준으로 확대되고 있음
- 기업들은 AI 활용의 이점을 유지하면서도 보안 정책을 강화하는 균형 잡힌 접근법 필요
- 실시간 모니터링 및 AI 거버넌스 구축을 통해 기업 정보 보호를 강화해야 함
'Kant's IT > Issue on IT&Security' 카테고리의 다른 글
패스 오브 엑자일2 관리자 계정 해킹 사고와 보안 조치 (0) | 2025.02.03 |
---|---|
구글·메타 개인정보 불법 수집 논란과 과징금 소송 (1) | 2025.02.03 |
2025년 이더넷의 변화: 800GbE부터 1.6Tb까지 (0) | 2025.02.03 |
구글 앵귤러 2025년 목표: 개발자 경험 강화와 기능 도입 간소화 (0) | 2025.02.03 |
위협 인텔리전스 예산 낭비를 알리는 5가지 신호 (0) | 2025.02.03 |