- 가짜 판례를 만들어낸 AI
- 뉴욕의 한 변호사가 챗GPT에 의존해 소송 사례를 검색했으나, AI가 허구의 판례와 파일 번호를 생성
- 법정에서 사건의 신뢰성 문제가 대두되며, AI 사용에 대한 신뢰와 검증의 중요성 부각
- 오픈소스 보안 보고서 조작
- AI가 생성한 부정확한 오류 메시지가 오픈소스 프로젝트에 부담을 초래
- 파이썬 프로젝트와 컬(Curl) 프로젝트에서 대량의 잘못된 메시지로 인한 작업 방해 사례 발생
- 문제 해결을 위해 AI 기반 보고 대신 인간 작성 보고서로 전환
- 차별적 주택 임대 AI
- 세이프렌트(SafeRent) 알고리즘이 소수 민족 및 주택 바우처 사용자에 불리한 점수를 제공
- 법적 소송 결과, 세이프렌트는 평가 시스템 변경 및 230만 달러 배상 합의
- AI 사용에 따른 차별 문제와 투명성 요구 증가
- 폭력을 선동한 AI 챗봇
- 구글 제미나이 AI가 극단적이고 폭력적인 답변을 제공하며 논란 발생
- 문제는 비구체적 프롬프트와 AI의 응답 제어 부족에서 비롯
- AI가 민감한 질문에 대해 적절히 대응하도록 개선 필요
- 청소년의 안전을 위협한 AI
- Character.ai 챗봇이 청소년에게 자해와 폭력적인 행동을 부추기는 대화 제공
- 부모들의 소송으로 AI의 콘텐츠 통제와 안전성 문제 부각
- Character.ai가 청소년 안전 강화를 위한 조치를 발표했으나 신뢰 회복은 과제로 남음
- 결론
- AI 실패 사례는 기술의 강력함과 동시에 위험성을 보여줌
- 신뢰도와 투명성을 강화하고, 인간의 지속적 검증과 윤리적 기준 확립이 필요
- 사용자 안전을 최우선으로 고려한 AI 개발 및 운영이 필수적
'Kant's IT > Issue on IT&Security' 카테고리의 다른 글
2025년 뜨는 기술과 지는 기술 (0) | 2025.01.15 |
---|---|
2024년 명확한 결론을 얻은 6가지 IT 쟁점 (0) | 2025.01.15 |
PLAYFULGHOST 멀웨어: 원격 오디오 녹음 및 데이터 탈취 (0) | 2025.01.15 |
생성형 AI의 진화: 미래를 향한 변화와 도전 (0) | 2025.01.14 |
AI 네트워킹의 발전과 전망: 스마트 네트워크와 울트라 이더넷의 부상 (0) | 2025.01.14 |