• 검색

[영화와 AI]⑲경마장 넘어 로봇 복싱장 생긴다

  • 2018.08.08(수) 15:55

인간 사행심과 AI로봇의 절묘한 조화
복싱 넘어선 전투로봇 나온다면…윤리규정 필요

인공지능(AI) 기술이 빠르게 확산되고 있습니다. 금융·자본시장·산업현장은 물론 일상생활까지 파고 들었죠. 마치 공상과학 영화에서 등장했던 AI가 현실화 된 느낌입니다. 하늘을 나는 자동차, 사이보그, 로봇전사까지는 아직 먼 얘기 같지만 지금의 변화속도라면 머지 않았다는 견해가 지배적입니다. 상상력을 바탕으로 만들어진 영화 속 AI와 현실에서 구현된 AI를 살펴보면서 미래의 모습을 짚어봤습니다. [편집자]

 

▲ [자료=영화 리얼스틸]

 

다들 한 번쯤은 크고 작은 사행성 게임을 해봤으리라 생각됩니다.

 

내국인 전용 카지노인 강원랜드나 마사회가 운영하는 경마장 아니면 로또, 연금복권에 이르기까지 장르는 다양합니다. 심지어 명절때 가족들과 100원짜리 동전 내기로 고스톱을 쳐본 경험이라도요.

 

인간의 사행성은 정도의 차이만 있을 뿐 사라지지 않는 심리인 듯 합니다.

 

인공지능(AI) 로봇을 소재로 한 영화 '리얼 스틸(Real Steel)'은 로봇 파이터의 이야기를 다룹니다. 미래엔 인간 대신 로봇이 복싱경기를 하고, 인간이 내기를 하면서 경기를 즐긴다는 소재입니다.

 

▲ [자료=영화 리얼스틸]

 

◇ 인간보다 흥미로운 복싱로봇

 

2011년 개봉된 리얼스틸은 2020년 모습을 상상하면서 그려냈습니다.

 

사람들은 스포츠 성격의 복싱경기에 흥미를 잃습니다. 점점더 과격하고 자극적인 스포츠를 즐기면서 한 쪽이 죽을 때까지 싸우는 리얼한 모습에 열광하죠. 결국 '인간의 경기'가 아닌 '로봇의 경기'에 빠져듭니다.

 

키 2.5m, 무게 1t에 달하는 파이터 로봇을 만들어 경기를 시킵니다. 조종은 인간이 합니다. 

 

나름대로 경기 리그도 있습니다. 불법 사설 경마장 처럼 블랙마켓에서 소규모로 로봇 복싱을 진행하고, 여기서 이겨 소문이 나면 공식적인 세계 챔피온리그에 올라갑니다.

 

영화속 주인공 찰리 켄튼 역시 로봇복싱 지하세계를 전전하며 3류 프로모터로 살아갑니다. 그러던 어느 날 존재도 모르고 지낸 아들 맥스의 소식을 접하고 임시 보호를 맡게 되죠.

 

어쩔 수 없이 한 팀이 된 그들은 맥스가 우연히 발견한 고철 로봇 '아톰'을 최고의 파이터로 키워내기 위한 훈련을 시작합니다.

 

로봇복싱은 꽤 현실성 있어 보입니다. 현재 이족보행 로봇들이 꽤 개발된 상태라 이를 싸움 모드로만 바꾸면 될 듯 하거든요.

 

▲ [자료=영화 리얼스틸]

 

◇ 인간 욕심이 복싱로봇으로 멈출까

 

영화속 아톰은 고철 로봇에 지나지 않지만 동작을 따라하는 학습기능을 갖고서 주인공으로부터 복싱기술을 배웁니다. 이윽고 세계 챔피온 로봇 제우스와의 경기를 펼치죠.

 

경기결과는 아톰이 챔피온전 마지막 5라운드에서 판정패 하지만 관중들은 진정한 승자를 아톰이라고 생각하는 것으로 영화는 끝납니다. 사람들이 아톰과 아톰을 만든 주인공 부자(父子)를 향해 박수를 보냅니다. 

 

그런데 생각해보세요. 사람들의 박수가 단순히 복싱로봇에서 멈출 수 있을까요.

 

드론을 띄워 영상자료만 보고 미사일을 공격하는 요즘 시대에 지상병력 대신 전쟁로봇을 만든다면 사람들은 또 다시 환호하지 않을까요.

 

그래서 최근 업계에서 대두되고 있는 것이 'AI 윤리' 입니다.

 

▲ [자료=영화 리얼스틸]

 

실제로 전 세계 AI분야 학자 50명은 지난 4월 한국과학기술원(KAIST)에 대한 보이콧을 선언한 바 있습니다. KAIST가 최근 방산전자 기업 한화시스템과 '국방 AI 융합연구센터'를 개소한 데 대한 항의 표시였죠.

 

전 세계 30개국 출신의 AI 연구원 50여명은 인간의 제대로 된 통제가 없는 AI 무기 개발을 자제하기 전까지 KAIST를 방문하는 것은 물론 KAIST 소속 교수 초청, 연구 프로그램 협력 등에서 일체 손을 떼겠다고 밝혔습니다.

 

물론 카이스트가 총장 명의의 서신을 통해 "킬러 무기 개발 의사가 전혀 없다"고 해명하면서 사태는 무마됐지만, 업계에선 무척 민감한 문제로 바라보고 있습니다.

 

AI 윤리문제를 주도하고 있는 토비 왈시 뉴사우스웨일즈대학 교수는 "자율 살상 무기는 24시간 일하면서도 아무런 윤리 의식이 없다"며 "만약 개발되면 치명적인 무기가 될 것이고 세계 전쟁 가능성이 높아지면서 핵전쟁으로 확산할 수 있다"고 말했습니다.
  
왈시 교수는 카이스트뿐만 아니라 세계적인 AI 연구 기술력을 갖춘 구글에게도 윤리 문제를 지적했다고 소개합니다. 그는 "구글에 AI 윤리 정책에 대한 질문서를 보냈는데, 카이스트 때보다 늦긴 했지만 답변을 받았다"며 "구글은 AI 연구 윤리를 갖고 있는데 특히 무기와 관련된 연구를 하지 않겠다는 원칙을 세웠다"고 구글의 입장을 전했습니다. 이어 "구글의 이 같은 원칙에 대해 완벽하게 만족하진 않지만 앞으로 누가 구글과 같은 민간기업을 감독할 것이냐에 대한 과제가 남아 있다"고 설명했죠.

 

점점 빠르게 개발되는 AI와 로봇의 세계에서 윤리규정 마련은 또 다른 측면에서 병행되어야 할 이슈입니다.

naver daum
SNS 로그인
naver
facebook
google