2020년 12월 23일 대통령직속 4차산업혁명위원회는 과학기술정보통신부와 정보통신정책연구원이 마련한 ‘사람이 중심이 되는 「인공지능(AI) 윤리기준」’을 심의 · 의결
개요
AI 윤리 배경
AI 기술과 서비스의 일상화·보편화로 인해 그간 잠복해있던 윤리훼손 이슈(기술의 오남용, 알고리즘에 의한 차별, 프라이버시 침해, 딥 페이크 범죄)가 드러남에 따라 사회적 우려가 커지고 있음
윤리적 접근의 필요성
- ① 제·개정이 경직된 법규범으로는 급격한 기술·사회 환경 변화에 대응할 수 없음
- ② AI에 대한 과도한 규제는 산업발전 저해와 국제 경쟁력 훼손 야기
문제해결을 위한 기민한 대응, 올바른 AI 개발·활용을 장려할 수 있도록, 안전장치이자 자율규제로서의 AI 윤리기준 마련
윤리기준의 지향점
- ① AI 전 주기에서 모든 사회 구성원인 참조할 수 있는 기준
- ② 특정분야에 제한되지 않는 범용성을 가진 일반 원칙 : 각 영역별 세부 규범이 유연하게 발전해 나갈 수 있도록 기능
- ③ ‘법’ 이나 ‘지침’ 이 아닌 자율 규범
- ④ 새롭게 제기되는 AI 윤리이슈를 논의 · 발전 시키는 플랫폼