ai리스크관리 2

사고하지 않는 AI에 사고를 위임한 기업, 그 위험성과 대응 전략

생각하지 않는 AI에 ‘생각’을 맡기는 기업들 생각하지 않는 AI에 ‘생각’을 맡기는 기업들NASA는 “LLM이 안전성 입증을 위한 주장을 작성하거나 검토하는 기술인지 의문이 제기된다. LLM은 사고하는 기계가 아니라, 그럴듯하게 꾸며낸 말을 생성하는 기계다. 그러나 안전성 향상이나 비www.itworld.co.kr 생성형 AI의 신뢰성 한계생성형 AI는 환각, 편향된 학습 데이터, 지침 무시, 가드레일 회피 등 다양한 방식으로 오류를 생성할 수 있음존재하지 않는 정보를 사실처럼 생성하거나, 민감한 상황에서 잘못된 의사결정을 유도할 수 있음고비용 라이선스를 지불하고도 사용자는 AI의 오작동을 통제하지 못하는 경우가 많음NASA 보고서의 경고생성형 AI는 ‘사고하지 않는 기계’로, 자동화가 필요한 추론 기..

인공지능(AI)과 프라이버시 리스크 관리 방안

[ET시론]인공지능과 관련한 프라이버시 리스크의 관리 [ET시론]인공지능과 관련한 프라이버시 리스크의 관리인공지능(AI)은 우리의 일상에 여러 가지로 편리함을 가져다준다. 하지만 그와 함께 다양한 형태의 리스크가 나타날 우려도 있다. 리스크(risk)는 위험(danger)을 의미하지 않는다. 크고 작은 부작용www.etnews.com AI 프라이버시 리스크 개요AI는 데이터 기반 학습 및 처리 과정에서 대규모 개인정보를 활용AI 모델은 인터넷 공개 데이터 및 불특정 다수 데이터 활용 증가딥러닝 기반 AI의 데이터 암기 현상으로 개인정보 노출 가능성 증가개인정보 침해, 불법 데이터 사용, AI 자동화 결정의 불투명성 등의 문제 발생AI 프라이버시 리스크 평가 및 관리 절차(4단계 접근법)AI 유형 및 용례..