Kant's IT/Issue on IT&Security

생성형 AI 도구를 통한 데이터 유출 위험 분석

Kant Jo 2025. 2. 3. 10:00

챗GPT·클로드·제미나이에 유출된 정보 분석했더니…

 

챗GPT·클로드·제미나이에 유출된 정보 분석했더니…

직원 48%가 기업 정보 무단 입력... AI 도구로 인한 데이터 유출 실태보안 전문기업 하모닉(Harmonic)이 발표한 '생성형 AI로 유출되는 데이터 현황' 보고서에 따르면, 직원들의 생성형 AI 도구 사용 과

zdnet.co.kr

 

  • 기업 정보 유출 실태
    • 보안 기업 하모닉(Harmonic) 보고서에 따르면 직원 48%가 생성형 AI 도구에 기업 기밀 정보를 입력한 경험이 있음
    • 68%의 기업이 이러한 데이터가 경쟁사 또는 대중에게 노출될 위험을 우려
    • 사용된 AI 도구: 마이크로소프트 코파일럿(Microsoft Copilot), 챗GPT(ChatGPT), 구글 제미니(Google Gemini), 앤스로픽 클로드(Anthropic Claude), 퍼플렉시티(Perplexity)
  • 유출된 민감정보 유형
    • 고객 정보(45.7%)
      • 고객 보고서(65.8%), 고객 프로필(20.9%), 결제 정보(8.9%), 신용카드 정보(1.7%), 청구 정보(2.0%), 고객 인증 데이터(0.5%)
    • 직원 정보(26.8%)
      • 직원 급여 정보(49.6%), 개인식별정보(49.6%), 고용 기록(0.8%)
    • 법률 및 재무 데이터(14.88%)
      • 영업 파이프라인(45.5%), 인수합병 정보(22.0%), 법률 문서(13.6%), 투자 포트폴리오(15.9%), 특허 정보(0.8%)
    • 보안 정보(6.88%)
      • 네트워크 구성(34.4%), 보안사고 보고서(31.1%), 사용자 접근 로그(16.4%), 관리 시스템 설정(8.2%)
    • 민감한 코드(5.64%)
      • 접근 키(82.0%), 독점 소스 코드(18.0%)
  • AI 도구별 위험성
    • 챗GPT 무료버전 사용 비율(63.8%), 제미니(58.6%), 클로드(75%), 퍼플렉시티(50.48%)
    • 무료 버전 사용자 중 53.5%가 민감정보를 입력
    • AI 기업들이 수집한 데이터가 학습에 사용될 가능성이 있어 기업 데이터 보안에 위협이 될 수 있음
  • 기업들의 대응 현황
    • 96%의 기업이 AI 거버넌스 구축 중, 82%가 데이터 유출을 우려
    • 아마존, 삼성 등 일부 대기업에서도 AI 도구 사용 중 기밀정보 유출 사고 발생
  • AI 보안 대응 방안
    • 실시간 모니터링 시스템 구축: AI 도구 사용 시 데이터 유출 탐지
    • 데이터 학습 배제 정책: 유료 버전 도입 및 기업 내 프라이빗 AI 사용 고려
    • 프롬프트 가시성 확보: 입력된 데이터 모니터링 및 감시
    • 민감 정보 분류 체계 적용: 입력 시점에서 자동 분류 및 차단
    • 부서별 맞춤형 보안 정책 시행: 업무 특성에 따라 AI 사용 가이드라인 설정
    • 직원 교육 강화: AI 사용 시 보안 위험을 이해하고 대응하도록 훈련
  • 결론
    • 생성형 AI 사용 증가에 따라 데이터 유출 위험이 심각한 수준으로 확대되고 있음
    • 기업들은 AI 활용의 이점을 유지하면서도 보안 정책을 강화하는 균형 잡힌 접근법 필요
    • 실시간 모니터링 및 AI 거버넌스 구축을 통해 기업 정보 보호를 강화해야 함