공상과학 영화에서는 로봇이나 컴퓨터가 인간을 위협하는 내용이 종종 등장합니다. 로봇, 컴퓨터에는 '윤리'가 없다고 보기 때문이죠. 실제로 로봇이나 컴퓨터가 먼 미래에 인간을 공격할 수 있는 지능과 의지를 가질 수 있을지 아직은 미지수입니다.
하지만 기술에 윤리가 필요한 건 먼 미래의 일은 아닙니다. 로봇이 인류를 위협할 수도 있다는 우려를 방지하기 위해서만 윤리가 필요한 건 아닙니다.
로봇과 컴퓨터, 디지털 자체에는 윤리가 없기 때문에 디지털에서 비롯될 수 있는 문제를 해결하고 디지털을 따뜻하게 만드는 건 결국 '사람'입니다. 이러한 고려없이 기술 개발을 위해 무분별하게 데이터를 수집, 분석을 하게 되면 그 속에서 차별이 발생하고 디지털 격차로 이어질 수 있습니다. 더 좋은 사회와 삶을 위해 디지털을 이용하는데, 그 디지털로 인해 차별받거나 소외되는 사람이 생겨셔는 안되는 일이겠죠.
그래서 이미 우리가 활용하고 있는 디지털에도 '윤리'가 필요하고 '착한 인공지능(AI)'에 대한 논의는 벌써 시작됐습니다.
국내에서는 카카오가 지난 2018년 1월 국내 기업 최초로 AI 기술 개발 및 윤리에 대한 원칙인 '카카오 알고리즘 윤리헌장'을 제정, 발표했습니다.
카카오가 말하는 알고리즘 윤리란
카카오 알고리즘 윤리헌장은 현재 총 7개의 조항으로 구성됐습니다. 2018년 1월 발표 후 지난해 9월 6번째 조항을, 올해 7월에 7번째 조항을 추가했습니다.
1. 카카오는 알고리즘을 통해 인류의 편익과 행복을 추구한다.
2. 알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다.
3. 알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거해 수집 분석 활용한다.
4. 알고리즘이 누군가에 의해 훼손되거나 영향받는 일이 없도록 관리한다.
5. 이용자의 신뢰관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에서 알고리즘에 대해 성실하게 설명한다.
6. 알고리즘 기반의 기술과 서비스가 사회 전반을 포용할 수 있도록 노력한다.
7. 아동과 청소년이 부적절한 정보와 위험에 노출되지 않도록 주의한다.
알고리즘 윤리 헌장을 만든 이유
카카오의 알고리즘 윤리 헌장 조항을 하나씩 뜯어보면 카카오가 왜 윤리 헌장을 제정하고 발표했는지를 확인할 수 있습니다.
기술이 사람의 생활을 편리하고 윤택하게 해줄 수는 있지만 그로 인한 부작용도 발생합니다.
다양한 데이터를 분석하다보면 편향성을 가진 데이터가 수집될 수 있고 이를 기반으로 알고리즘을 개발하게 되면 사회적 차별이 발생할 수 있습니다.
이는 과거 MS의 AI 기반 소셜 챗봇 '테이(Tay)'를 통해서도 확인할 수 있었습니다. 테이는 인간과의 대화를 통해 대화 능력을 길렀습니다. 대화 상대가 많아질수록 언어와 대답 능력이 좋아지도록 설계 됐죠. 대화 상대 중 일부 사람들은 인종차별이나 혐오 등의 언어를 사용했고 테이는 이 언어를 배웠습니다. 결국 테이는 공개된지 하루가 채 지나기 전에 비공개로 전환됐습니다.
AI가 옳고 그름을 판단하지 못하고 데이터를 무분별하게 받아들일 경우 처음 의도와는 다르게 사회적 차별이 발생할 수 있습니다.
또 알고리즘 설계는 결국 사람이 하기 때문에 특정 의도로 인해 훼손될 수도 있습니다. 2016년 데이터 기반 컨설팅업체 캠브릿지 애널리티카(CA)는 페이스북 이용자의 개인 정보를 빼내고 이를 활용한 '은밀한 알고리즘'을 통해 영국 브렉시트 투표와 미국 대선에 영향을 미치는 사건도 있었습니다.
각종 데이터들이 서비스를 더욱 발전시키는 데 사용되는 측면은 긍정적이지만 무분별하게 활용될 경우 편향적이거나 차별적일 수 있으며 특정 기관이나 특정 의도로 변질될 수 있습니다.
이는 굳이 공상과학 영화처럼 먼 미래의 로봇이 인간을 공격하는 엄청난 위협을 우려해 AI에 윤리를 적용해야하는 것만은 아님을 보여줍니다.
알고리즘 윤리 헌장을 만든 이유에 대해 카카오 측은 "AI 개발 및 원칙과 관련된 윤리 의식을 내부적으로 공고히 하고 카카오의 AI 서비스 소비자에게 카카오가 AI를 개발하고 관리하는 과정에서 어떤 윤리 의식을 갖고 관련 업무에 임하는지를 설명하고자 하는 취지다"라고 설명했습니다.
AI에 윤리를 심다
AI 윤리에 대한 연구는 카카오가 시작은 아닙니다. 이미 전 세계적으로 논의가 진행되고 있습니다.
지난 2018년 1월 6일 미국 캘리포니아 아실로마에서 열린 AI 컨퍼런스에서는 총 23개항으로 이뤄진 AI 개발 준칙인 '아실로마 AI 원칙(Asilomar AI Principles)'이 발표되기도 했습니다. 이 원칙에는 테슬라의 일론 머스크 창업자, 알파고의 데미스 허사비스 대표, 스티븐 호킹 박사 등이 서명을 했습니다.
아실로마 AI 원칙의 제 1항은 'AI 연구 목표는 인간에게 유용한 지능을 개발하는 것'이라는 것입니다.
이외에도 AI는 인간 존엄, 권리, 자유와 부합해야 하며 전 인류의 혜택과 보편적인 윤리적 이상을 위해서만 개발돼야 한다는 내용을 포함하고 있습니다.
앞으로 급속도로 발전될 AI는 인간의 더 나은 삶과 생활을 위해서 발전돼야 하는 것이고 특정 사람들이나 특정 기관, 기업들을 위해 발전되는 것은 방지해야 하기 때문이죠.
구글은 지난 2018년 '사회를 이롭게 해야 한다', '불공정한 편견을 만들거나 강화해선 안된다' 등의 내용을 담은 'AI 활용을 위한 7가지 지침'을 발표했습니다. IBM은 '왓슨AI 랩'을 세우면서 'AI가 끼칠 윤리적 파장'을 연구과제로 내세우고 AI 윤리에 대해 연구를 진행하고 있습니다.
삼성전자는 2018년 국내 기업 중 최초로 AI 국제협력단체인 'PAI'에 가입했습니다. PAI는 2016년에 설립된 단체로 '윤리적 AI의 연구개발'을 주도로 하는 것이 목표입니다.
당시 조승환 삼성리서치 부사장은 "삼성전자는 PAI 가입을 통해 사람과 사회에 유익하면서도 신뢰할 수 있는 AI 제품과 혁신적인 서비스를 만들기 위해 글로벌 기업과 협력을 지속해 나갈 것"이라고 말했습니다.
▷편리했던 디지털의 역설, '디지털, 새로운 불평등의 시작'
http://www.bizwatch.co.kr/digitaldivide/
총 1개의 댓글이 있습니다.( 댓글 보기 )