• 카카오스토리
  • 검색

[AI와 법]①난감할 때 곧 온다…'좋은규제' 필요

  • 2019.05.22(수) 14:56

스마트폰 확산 경험볼 때 AI도 곧 필수품
미리 문제점 생각치 않으면 혼란 가중

/사진=이명근 기자 qwe123@

인공지능(AI) 시대가 확산되면서 생활의 편리함이 커지고 있다. 하지만 AI로 인해 새로운 리스크도 생겼다. 문제는 이런 리스크 발생시 대처할 수 있는 법·제도가 있느냐 여부다. 최근 국회가 나섰다. 국회 과학기술정보방송통신위원회는 '인공지능(AI) 시대의 법제정비 방안'이라는 정책연구용역보고서를 받았다. 향후 법률 제정의 기초가 될 전망이다. 이 보고서 내용을 토대로 AI 시대에 나타날 수 있는 주요 이슈와 고민점을 살펴봤다. [편집자]

작년말 한 통신사의 통신구 화재로 인근지역 인터넷, 전화가 일시 중단됐다. 긴 시간이 아니었지만 상인들 피해가 속출했다. 곧이어 피해보상 논의가 시작됐지만 접점 찾기란 쉽지 않았다.

약관에 명시된 규정만으론 부족하다는 게 상인들 얘기였다. 결국 국회까지 나서 급조된 새 피해보상 기준을 만들었다.  
 
지금 우리는 인공지능(AI)이 점차 고도화 되고 5G 이동통신으로 초연결성이 가능한 시대를 살고 있다.

AI가 새로운 창작물을 만들어내고, 자율주행차가 거리를 활보할 날이 곧 다가온다. 새로운 서비스와 디바이스는 우리 생활을 더욱 편리하게 해줄 것이다.

그런데 만약 AI로 인한 문제가 발생한다면, 통신구 화재사고를 초월한 문제점이 나타날 수 있다.

관련 법·제도가 없으니 그때 그때 상황판단을 해야한다. 상황판단은 경우에 따라 달라질 수 있으니 형평성도 떨어진다. 어떤 상황에선 책임소재를 사람·기업이 아닌 AI에게 물어야 할 수도 있다.

예상 가능한 리스크 시나리오는 이렇다.

우선 기능 리스크다.

AI 네트워크 시스템이 해킹공격을 받아 정보가 유출되거나 시스템이 부정하게 조작된다면 어떻게 할 것인가.

AI 네트워크가 진전되면 상호 연결성이 높아지는 반면 예상치 못한 네트워킹으로 정보처리가 이뤄질 수도 있다.

심한 경우 부정한 업데이트 등을 통해 동작에 장애가 발생하거나 통제가 안되는 상황도 발생할 수 있다.

법률 리스트도 있다.

자율주행차가 네트워크를 통해 잘못된 정보를 공유하거나 교통시스템이 마비돼 사고가 발생한다면 누구 책임일까.

AI를 보이스 피싱에 이용하거나 부정하게 조작하면 범죄에 악용될 수 있다.

AI회사 도산시 서비스피해 대책은

AI 회사의 도산으로 관련 업데이트나 작동데이터에 오류가 발생한다면 소비자 피해는 누가 책임지나.

위치, 금융, 의료기록 등 개인정보가 유출되거나 본인 의사와 달리 유통된다면 어떻게 막을 것인가.

공상과학 영화 소재로 쓰이듯 AI로 사망한 사람의 유전자를 재현하거나 국가관리 시스템을 무력화 시킨다면, 또는 로봇들까지 참정권을 요구한다면 어떻게 할 것인가.

세대·계층간 리스크도 발생할 수 있다.

AI를 이용할 수 있는 능력이 세대와 계층에 따라 크게 차이가 난다면 그 격차를 악용하는 사회문제가 발생할 수 있기 때문이다.

/사진=이명근 기자 qwe123@

실제로 지난 2016년 3월 마이크로소프트(MS)가 공개한 AI 채팅로봇 테이(Tay)는 극우 성향의 이용자들에게 배운 욕설과 극단적 발언을 쏟아내서 공개 16시간 만에 서비스가 중단된 바 있다. 지난 2015년 7월28일 국제인공지능회의에서 발표됐던 자율형 전쟁무기에 대해서도 AI 전문가들은 우려의 공개서한을 발송하기도 했다.

국회 과학기술정보방송통신위원회 정책연구용역보고서 '인공지능(AI) 시대의 법제정비 방안'에서는 "이런 리스크는 대체로 AI 연구자나 이를 상품화하는 개발자가 줄여나가야 하겠지만 경우에 따라선 이용자의 올바른 AI 사용이 요망되기도 한다"면서도 "그렇다고 이용자에게 과다한 부담을 요구하는 것은 이용자의 불안함을 가중시켜 AI의 사회수용을 가로막는 결과를 가져올 수 있으므로 신중한 선택이 필요하다"고 밝혔다.

예를들면 MS의 채팅로봇 테이 사건의 경우 개발자가 제시한 사용법에 따라 이용했음에도 불구하고 발생한 사고에 대해선 이용자의 책임을 제한한다거나 타인에게 손해를 줄 수 있는 리스크는 보험 제도를 활용해 분산하도록 하는 등의 제도적 장치가 마련되어야 한다.

'좋은규제' 사회적 합의 만들어야

즉 AI에 대해 '좋은규제'가 무엇인지 꾸준한 고민이 이뤄져야 한다.

보고서는 "2010년 이후 폭발적으로 보급된 스마트폰처럼 AI도 실용화 되면 순식간에 퍼져서 우리 생활의 필수품이 될 수 있다"면서 "그렇다면 아직 등장하지 않은 완전자율형·범용 AI에 대해서도 미리부터 그 문제점을 생각하고 대응하거나 연구개발을 제한하는 논의가 필요하다"고 강조했다.

이어 "물론 아직 존재하지 않은 기술이나 서비스를 세세하게 생각하는 데에는 어려움이 있다"면서도 "단순한 예상만으로 규제하면 실효성도 거두기 어렵고 AI기술의 혁신을 가로막아 결국 공공의 이익을 훼손할 수도 있는 만큼 AI의 발전방향이나 제한에 대한 전세계적·사회적 합의를 형성하지 않으면 계속적인 연구개발이나 이용이 어려워질 수 있음을 지금 단계에서는 염두해야 한다"고 덧붙였다.

SNS 로그인
naver
facebook
google