• 검색

AI 리스크 평가모델 9월 나온다…"사례 기반 '바텀업' 원칙"

  • 2024.06.19(수) 16:40

개인정보 미래포럼서 방향성 발표

19일 개인정보보호위원회가 서울중앙우체국에서 개최한 제3차 '개인정보 미래포럼'이 진행되고 있다./사진=김동훈 기자

인공지능(AI)이 개인정보보호에 미치는 리스크(위험)를 평가하는 모델이 오는 9월 나온다. 새롭게 등장하는 평가 모델은 AI 사용 사례에 따라 유형을 파악해 평가하는 '바텀업'(bottom-up·세부적 사례를 바탕으로 원칙을 수립하는) 방식으로 마련되는 것이 가장 큰 특징이 될 전망이다.

박상철 서울대 법학전문대학원 교수는 19일 개인정보보호위원회가 서울중앙우체국에서 개최한 제3차 '개인정보 미래포럼'에서 'AI 프라이버시 리스크 평가 방안'의 방향성을 이같이 발표했다. 개인정보위는 지난해 8월 '인공지능 시대, 안전한 개인정보 활용 정책방향'에서 'AI 프라이버시 리스크 평가 모델'을 내놓을 계획을 밝힌 바 있다.

박 교수는 "이번 규제의 철학은 하향식으로 규율하는 게 아니라 유스 케이스(용례)와 정보주체가 직면하는 현실 등을 통해 사안을 파악하고 평가 방안을 찾는 바텀업 방식"이라며 "AI 활용의 용례, 유형, 편익, 리스크, 경감 기술 등을 분석해 평가한다는 원칙"이라고 설명했다. 이런 과정에서 과도한 통제로 AI를 제대로 활용하지 못하는 기회비용도 중요한 리스크로 판단할 방침이다.

그러면서 "유형별로 평가를 하게 되면 사례마다 적용 규제가 달라져 산만하게 될 우려가 있고, 여러 부처의 여러 법에 의한 이중규제가 되는 일도 발생할 수 있으나 그렇게 되지 않도록 할 것"이라며 "이를 위해 AI 개발 과정에서도 리스크를 측정 가능하도록, 또한 최신 기술을 반영할 수 있도록 하는 작업도 함께 하고 있다"고 전했다.

또한 이번 평가 체계는 국내 사정에 적합하게 구현하되, 미국이나 유럽연합(EU)의 AI 리스크 관리 체계와 동떨어지지 않도록 한다는 방침이다.

이와 함께 AI를 개발, 서비스하는 기업·공공기관 등이 관련 리스크를 자율적으로 평가하고 경감 조치를 적용할 수 있도록 이들이 평가항목을 제시하는 방안도 함께 모색할 계획이다.

이에 따른 리스크 평가 절차(안)는 '용례와 유형 식별→리스크 매핑→리스크 측정→리스크 경감→거버넌스 확립 및 민관협력' 순으로 이뤄질 전망이다.

개인정보위는 이번 미래포럼에서 제안된 의견을 반영해 AI 프라이버시 위험도 평가 모델을 마련해 신기술·신산업 성장을 지속 지원할 계획이다.

이경우 대통령비서실 인공지능·디지털 비서관은 "AI 시대에 개인정보보호를 함께 고민할 수 있는 토론을 한다고 해서 대통령실에서도 의견을 듣기 위해 세 분의 행정관과 함께 왔다"며 "AI 발전과 개인정보보호는 양립하기 어려운 문제일 수 있지만 이를 할 수 있는 정책방향을 주시면 최대한 반영할 수 있도록 노력하겠다"고 말했다.

naver daum
SNS 로그인
naver
facebook
google