<로봇과 일자리>⑤-1 로보사피엔스 공존법
'로봇' 책임에서 '인간' 책임으로 논의 발전
국내선 2007년 로봇윤리헌장…이후론 답보
AI(인공지능)를 비롯해 지능형 로봇기술이 발전하면서 로봇에 대한 인식도 달라지고 있다. 과거 로봇은 인간의 삶을 좀 더 풍요롭게 해주는 도구나 수단 정도로 여겨졌지만 이제는 다르다. 인간 사회의 일부분으로서 공존해야 할 대상으로 바뀌고 있다.
로봇의 존재감이 달라지면서 고민도 커지고 있다. 특히 유럽을 중심으로 로봇에도 인격을 부여해야 한다는 목소리가 나오면서 논쟁이 본격화하고 있다. 국내서도 정부가 지난 2007년 '로봇윤리헌장' 초안을 공개하며 관심을 두기 시작했지만 이후론 논의가 지지부진하다.
특히 로봇의 행위에 따른 최종적인 책임을 누가 져야할 지가 가장 큰 화두다. 하지만 아직 어느 국가도 로봇 윤리에 대한 개념을 명확하게 세우지는 못하고 있다. 그만큼 로봇과 인간의 관계가 복잡해 앞으로 어떤 상황이 전개될지 예측하기가 힘들다는 얘기다.
◇ 책임은 누구에게
로봇 윤리에 대한 관심은 AI 기술 발전과 함께 발생할 수 있는 사고의 책임 문제에서 시작한다. 가령 카페에서 일하는 로봇이 손님에게 음료를 서빙하다 실수로 피해를 줬다면 그 책임이 로봇에 있는지 아니면 로봇을 사용한 주인이나 더 거슬러 올라가 로봇을 제작한 제작사의 문제인지 등에 대한 고민이다.
과거 로봇 윤리에 대한 고민을 처음 시작했을 당시만 해도 로봇에 책임을 물리자는 분위기였다. 1942년 미국의 SF 작가이자 생화학자였던 아이작 아시모프(Issac Asimov)는 그의 소설에서 로봇 윤리에 대한 3가지 원칙을 공개했다.
▲로봇은 인간에게 해(害)를 끼치거나 혹은 아무런 행동을 하지 않음으로써 인간에게 해를 가해선 안 된다 ▲로봇은 인간의 명령에 복종해야 한다. 단 명령이 첫 번째 원칙에 어긋나면 예외로 한다 ▲로봇은 자신을 보호해야 한다. 단 첫 번째와 두 번째 원칙과 어긋나면 예외로 한다 등이다.
즉 로봇은 인간의 삶을 돕기 위해 존재하는 만큼 인간을 해하는 방향으로 활용해선 안 된다는 게 아시모프의 주장이었다. 특히 로봇은 스스로를 위한 행동보다 인간을 위한 행동이 더 우선이며, 그렇지 않을 경우 궁극적으로 그 책임은 로봇에 있는 것으로 해석할 수 있다는 게 초기 로봇 윤리 논의의 주된 흐름이었다.
하지만 2000년대 중반 이후 로봇의 활용 분야가 다양해지면서 인간과 로봇 간 상호 작용에 대한 관심이 높아지기 시작했다. 인간의 삶을 개선하기 위한 단순한 도구로 생각하던 로봇을 이제는 인간과 공존하는 파트너로 받아들여야 한다는 목소리가 나오기 시작했다.
2004년 일본 후쿠오카 세계 로봇 선언에서는 로봇과 인간의 공존을 강조했고, 2006년 유럽로봇연구연합의 로봇윤리 로드맵에서는 '로봇이 어떠해야 한다'라는 원칙에 따라 로봇을 만드는 이들을 대상으로 가이드라인을 제공했다. 책임 소재의 무게 중심이 로봇에서 인간으로 넘어가고 있다는 얘기다.
하지만 아직 의견은 분분하다. 로봇 기술의 복잡성과 자율성 확대와 함께 로봇에 대한 인간의 통제력이 약해지면서 책임 소재가 오히려 더 불분명해지고 있는 탓이다.
여기에 AI가 탑재된 로봇의 자율성과 주체성을 고려해 법적 인격성까지 부여하면 법적 권한과 책임 설정은 더욱 어려워질 수 있다. 최근 유럽연합(EU)이 '로봇에 인격을 부여해야 한다'는 주장을 두고 갑론을박을 계속 이어가고 있는 이유다.
◇ 국내서도 논의는 있지만
국내 상황도 별반 다르지 않다. 로봇산업이 발전하면서 로봇 윤리에 대한 필요성을 인지하고, 연구를 진행하고 있긴 하지만 뚜렷한 결과물은 없다. <☞ '2018 비즈워치 포럼' 바로가기>
정부는 지난 2007년 지능형 로봇 등장에 대처하고, 로봇과 공존하기 위해 로봇윤리헌장을 도입하려고 했다. 관련분야 전문가들이 여러 차례 논의했지만 결국 구체적인 내용은 만들지 못했고, 미완성으로 평가받는 로봇윤리헌장 초안만 공개했다.
이 초안을 두고도 여전히 인간 중심의 윤리헌장이라는 지적이 많다. 로봇을 윤리헌장의 주체로 보지 않고 제조자와 사용자 윤리 위주로 규정하고 있어서다. 실제 초안을 살펴보면 로봇에 대한 내용보다는 제조자와 사용자에 대한 내용이 7개 안 가운데 절반 이상을 차지한다.
이 와중에 구글이 만든 AI 알파고가 바둑기사 이세돌 9단에게 승리한 이후 로봇 윤리와 법·제도적 논의가 뒤섞이면서 더 복잡한 양상으로 전개되고 있다. AI 로봇은 스스로 지능을 갖고 행동하는 존재인 만큼 로봇이 지켜야 할 윤리적 규칙이 필요하다는 의견부터 여전히 로봇을 만들거나 사용하는 이가 지켜야 할 윤리적 책임을 더 강조하는 주장까지 다양한 논의가 혼재하고 있다.
김효은 한밭대 인문교양학부 교수는 "국내에서도 로봇이 인간과 같아질 수 있는가 또 법적으로 로봇을 어떻게 판단할 것인가 등 다양한 분야에서 논의가 이뤄지고 있다"며 "윤리의 범위가 매우 넓은 데다 패러다임도 계속 바뀌고 있어 로봇 윤리 논의엔 다양한 법과 규제, 기술 등이 함께 포함될 수밖에 없다”고 말했다.