Kant's IT/Issue on IT&Security

맨디언트의 권고: 생성형 AI 보안 강화를 위한 거버넌스 구축

Kant Jo 2025. 1. 2. 13:10

맨디언트, “견고한 거버넌스로 생성형 AI 보안 강화해야”

 

맨디언트, “견고한 거버넌스로 생성형 AI 보안 강화해야”

기업이 생성형 인공지능(AI) 도입으로 인한 내부정보 유출 등 사이버 보안 문제에 관심을 갖지만, 정작 AI 거버넌스가 취약하다거나 데이터를 부실하게 관리하는 등 잠재적인 보안 실수를 저지르

www.etnews.com

 

  • 생성형 AI 도입과 보안 문제
    • 생성형 AI 도입으로 내부정보 유출 및 보안 문제 발생 가능성 증가
    • 기업 내 AI 거버넌스 취약성과 데이터 관리 부실이 주요 원인
  • 주요 문제점과 해결 방안
    • 부실한 AI 거버넌스
      • 문제점
        • 업무용 생성형 AI 사용으로 보안 및 프라이버시 리스크 증가
        • 과도한 제한으로 직원들이 '쉐도우 AI' 활용
      • 해결 방안
        • 반복적이고 유연하며 명확한 커뮤니케이션 기반의 거버넌스 설계
        • 이해관계자의 피드백을 바탕으로 지속적인 개선
    • 데이터 관리 부실
      • 문제점
        • 데이터 수집, 정제, 라벨링 과정의 중요성 간과
        • 부적절한 데이터 관리로 AI 개발 및 보안 문제 초래
      • 해결 방안
        • 데이터 거버넌스 관행 도입
        • 데이터 수집, 정제, 표준화 프로세스 강화
    • 과도한 접근 권한
      • 문제점
        • 내부용 챗봇 및 LLM 기반 기술에 과도한 접근 권한 부여
        • 민감 정보 유출 및 침해 발생 위험
      • 해결 방안
        • 역할 기반 접근 제어(RBAC) 및 최소 권한 원칙 준수
        • 권한 정기 점검 및 업데이트 수행
    • 상속된 취약점(Inherited Vulnerabilities)
      • 문제점
        • AI 모델 간 연계로 인해 단일 모델 취약점이 전체 환경 위협
        • 제3자 및 파인튜닝 모델의 보안 취약점 식별 어려움
      • 해결 방안
        • 제3자 및 파인튜닝 모델 도입 전 철저한 사전 검증
        • AI 모델 간 보안 점검 프로세스 강화
    • 퍼블릭 및 내부용 AI 보안 취약성
      • 문제점
        • 퍼블릭 AI만 위협 요소로 간주하는 인식의 오류
        • 내부자 위협, 데이터 노출, 내부 네트워크 취약점 간과
      • 해결 방안
        • 퍼블릭과 내부용 AI 모두에 일관성 있고 엄격한 보안 조치 적용
  • 결론
    • 생성형 AI의 보안 강화를 위해 견고한 거버넌스와 데이터 관리 체계 필요
    • 최소 권한 원칙과 철저한 접근 제어를 통해 정보 유출 방지
    • 내부 및 퍼블릭 AI 도구에 관계없이 일관된 보안 조치 적용 필수
    • 기업은 지속적인 피드백과 검증을 통해 보안 체계를 발전시켜야 함