정부가 '사람 중심의 인공지능(AI) 윤리기준'을 마련했다. 인공지능 기술의 발전·확산은 생산성·편의성을 높여 국가 경쟁력을 높이고 삶의 질을 높일 것으로 기대되지만, 기술 오용과 데이터 편향성 같은 윤리 문제도 제기되고 있어서다.
산업계는 윤리 기준의 필요성에 대해 공감하면서도 인공지능에 대한 과도한 불안감이 조성될 수 있고 기술 발전을 저해할 수 있어 경계하고 있다. 이번에 마련된 윤리 기준 일부는 상충하는 대목도 있어 논란이 예상된다.
◇ "사람 중심의 인공지능 만들어라"
과학기술정보통신부는 23일 열린 대통령 직속 4차산업혁명위원회 전체회의에서 인공지능 윤리기준을 마련했다고 밝혔다.
인공지능 윤리기준은 '인간성'(Humanity)을 위한 인공지능'을 강조하는 3대 원칙과 10대 요건을 담았다. 과기정통부는 "모든 사회 구성원이 모든 분야에서 자율적으로 준수하며 지속 발전하는 윤리기준을 지향한다"고 강조했다.
3대 기본원칙은 인간성을 구현하기 위해 인공지능의 개발·활용 과정에서 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙을 지켜야 한다는 내용이다.
10대 핵심요건은 인공지능의 개발과 활용 등 모든 과정에서 ①인권 보장 ②프라이버시 보호 ③다양성 존중 ④침해금지 ⑤공공성 ⑥연대성 ⑦데이터 관리 ⑧책임성 ⑨안전성 ⑩투명성을 충족해야 한다는 것이다. 이는 지난달 말 공개한 초안과 똑같다.
◇ 원칙·요건들의 상충 문제 여전…수정보완 가능성
다만 이번 윤리기준은 불완전한 측면이 존재해 보완할 여지가 있다.
대표적으로 윤리기준이 제시하는 원칙과 요건들은 상황에 따라 상충관계가 발생할 수 있기 때문이다. 이러한 지적은 그동안 논의 과정에서 제기되기도 했다.
예컨대 프라이버시 보호와 공공성이 충돌할 여지가 있다. 사회 공공성 증진을 위해 개인 정보를 이용하려는 시도가 있을 때 두 요건이 부딪힐 수 있다.
이런 이유로 과기정통부는 "상충하는 문제의 해결 방식은 개별 맥락과 상황에 따라 달라질 수 있어 이번 윤리기준은 각각 원칙 사이에 고정된 형태의 우선순위를 제시하지는 않는다"고 밝혔다.
아울러 "직간접적으로 영향을 받는 이해관계자가 지속적인 토론과 숙의 과정에 참여해 절충점과 해결 방안을 모색하도록 권유한다"고 설명했다.
산업계도 윤리기준의 필요성에 대해 대체적으로 공감하지만 우려의 목소리도 제기됐다.
4차위에 따르면 산업 쪽 의견을 대변하는 전문가들은 "윤리기준의 필요성과 전체 구성에 대체적으로 공감한다"면서도 "인공지능에 대한 과도한 불안감 조성이나 기술발전을 저해할 수 있는 규제로 이어지는 것은 경계한다"는 의견을 내놨다.
실제 적용됐을 때 혼란을 최소화하기 위한 구체적인 가이드 라인도 요구된다. 이를 위해 과기정통부는 개발자·공급자·이용자 등 주체별 체크리스트를 개발하고 인공지능 윤리 교육 프로그램도 마련할 계획이다.
정부가 이번 기준을 완성형으로 확정하는 것이 아니라 논의에 따라 지속적으로 바뀔 수 있다는 자세인 점은 업계가 반길만한 대목이다.
4차위 관계자는 "인공지능 윤리기준을 기본 플랫폼으로 하면서 새로운 인공지능 윤리이슈를 지속 논의할 것"이라며 "필요하면 윤리기준을 보완하고 세부기준을 마련하는 한편, 입법도 지원하겠다"고 말했다.
최기영 과기정통부 장관도 "윤리기준이 인공지능 윤리 이슈에 대한 우리사회의 토론과 숙의의 시작점이자 사람 중심의 인공지능으로 나아가는 플랫폼이 되도록 노력하겠다"고 밝혔다.