Kant's IT/Issue on IT&Security

챗GPT와 개인 정보를 공유하면 안 되는 이유

Kant Jo 2024. 12. 10. 11:39

챗GPT와 개인 정보를 공유하면 안 되는 이유

 

챗GPT와 개인 정보를 공유하면 안 되는 이유

챗GPT 같은 AI 챗봇이 거의 모든 주제를 두고 대화를 나눌 수 있는 인상적인 채팅 친구라는 사실은 부인할 수 없다. 대화 능력 또한 매우 설득력이 있어 개인 정보를 공유해도 안심할 수 있다는 느

www.itworld.co.kr

 

  • 챗봇의 데이터 저장 및 유출 위험
    • 사용자가 입력한 모든 정보는 서버에 저장되며 이후 학습 데이터로 사용될 수 있음
    • 설정을 통해 채팅 기록 저장을 비활성화하지 않으면 금융 정보, 비밀번호 등 민감한 정보가 저장될 가능성이 있음
    • 업로드된 파일과 피드백도 저장되며 서비스 개선을 위해 사용됨
  • 이용 약관과 데이터 활용
    • 챗GPT의 이용 약관에 따르면, 사용자가 제공한 데이터는 모델 개선 목적으로 사용 가능
    • 데이터는 비식별화하거나 집계된 형태로 사용될 수 있으며, 대중에게 공개될 가능성도 존재
    • 사용자가 알지 못하는 사이에 개인 정보가 학습 및 저장될 수 있음
  • 데이터 침해 사례
    • 2023년 챗GPT의 보안 취약점을 악용한 해킹 사건 발생
    • 유출된 데이터에는 이름, 이메일, 전화번호 등 민감한 정보 포함
    • 기업들도 데이터 유출로 인한 피해를 경험, 삼성은 소스 코드 유출 사고 이후 AI 사용을 금지함
  • 정부와 기업의 대응
    • 미국 행정명령을 통해 AI 시스템의 프라이버시 보호 원칙 발표
    • 일부 기업은 생성형 AI 사용을 제한하며 자체 데이터 보호 정책 강화
    • 데이터 보안을 강화하려는 움직임이 있지만, AI 학습 데이터 활용에 대한 명확한 법적 규제는 미비
  • 개인 정보 보호 인식과 한계
    • AI에 과도한 정보를 제공하지 않는 것이 최선의 방어책
    • 챗봇을 단순한 알고리즘으로 취급하고 신뢰할 수 있는 친구로 간주하지 않는 태도가 필요
  • 결론
    • 챗GPT와 같은 AI를 사용할 때 민감한 정보를 입력하지 않도록 주의해야 함
    • 플랫폼의 설정을 활용해 데이터 저장 및 기록 비활성화 권장
    • AI 사용 시 개인 정보 보호를 위한 정부와 기업의 법적 및 기술적 대책 마련이 시급함
    • 정보보호 관점에서 AI를 사용할 때 데이터 보호 인식을 강화하고, 개인정보 제공을 최소화하는 습관을 들이는 것이 중요함