2023.02.01
by 정한영 기자
AI RMF는 조직이 AI 위험을 해결할 수 있도록 유연하고 체계적이며, 측정 가능한 프로세스를 제공한다. AI 위험 관리를 위한 이 프로세스를 따르면 AI 기술의 이점을 극대화하는 동시에 개인, 그룹, 지역사회, 조직 및 사회에 부정적인 영향을 미칠 가능성을 줄일 수 있다.
전통적인 소프트웨어와 비교하여, 인공지능(AI)은 보다 많은 다른 위험을 야기한다. AI 시스템은 시간이 지남에 따라 때로는 크게, 그리고 예기치 않게 변화할 수 있는 데이터에 대해 훈련되어 이해하기 어려울 수 있는 방식으로 시스템에 영향을 미친다.
이러한 시스템은 또한 본질적으로 사회 기술적(Socio-Technica)이며, 그것들은 사회적 역학과 인간 행동에 의해 영향을 받는다는 것을 의미한다. AI 위험은 이러한 기술 및 사회적 요인의 복잡한 상호 작용에서 발생할 수 있으며, 인공지능 챗봇 챗GPT(ChatGPT)사용 경험부터 구직 및 대출 신청 결과에 이르기까지 다양한 상황에서 사람들의 삶에 영향을 미칠 수 있다.
이처럼 다양한 분야에서 인공지능의 편견을 최소화시키려면 편향된 데이터와 인간과 시스템의 편견도 해결해야 한다.
이에 미국 상무부 산하 연구기관 美국립표준기술연구소(National Institute of Standards and Technology. 이하, NIST)가 지난달 26일(현지시간) 인공지능 위험 관리 프레임워크 'AI RMF 1.0'(AI Risk Management Framework-AI RMF 1.0)를 발표했다.
출처: 인공지능신문
출처 : 인공지능신문(https://www.aitimes.kr)
Commenti