#아마존은 2018년 인공지능(AI) 기반 알고리즘을 사용해 지원자의 이력서를 검토하고 평가하는 채용 도구를 개발했다. 하지만 시험 과정에서 여성을 차별하는 문제점이 발견되면서 활용하지 않았다. 아마존은 과거 10년 동안의 데이터를 사용해 AI 모델을 훈련시켰는데 AI가 남성 지배적인 기술산업 업계의 현실을 그대로 학습하면서 오류가 발생한 것이다.
AI가 우리 생활 전반에 걸쳐 확산되면서 부작용을 우려하는 목소리가 커지고 있다.
7일 정보통신기획평가원(IITP) 보고서(인공지능 편향성 이슈와 신뢰성 확보 방안)에 따르면 AI의 일반적인 정의는 '인간이 만든 지능적인 존재'로 명시적인 지시 없이 지능적으로 작업을 수행할 수 있으며 합리적이고 인간적으로 사고하고 행동할 수 있는 것을 말한다.
AI는 스마트기기와 자동차, 의료시스템, 빅데이터, 로봇공학, 앱, 사물인터넷(IoT)과 같은 4차 산업혁명의 핵심 기술을 견인하고 있다. 맥킨지글로벌연구소에 따르면 2030년이 되면 AI는 세계적으로 13조달러(약 1경5392조원) 이상의 경제적 가치를 창출할 것으로 전망된다.
하지만 활용 범위가 확대되면서 우려의 목소리도 커지고 있다. 윤리적인 이슈 중 하나는 편향성 문제다. 특히 스캐터랩이 개발한 AI 챗봇 서비스인 '이루다'와 마이크로소프트의 '테이' 등이 논란 속에 서비스를 종료하면서 관련 문제가 수면 위로 떠올랐다.
AI 편향은 기계 학습 알고리즘 출력의 이상 현상 때문에 발생한다. 이는 알고리즘 개발 과정에서 만들어진 편견이나 훈련 데이터의 편견 때문일 수 있다.
보고서는 기술적으로는 AI의 편향성을 없앨 수 있지만 현실 세계에서 완벽하게 AI의 편향성을 없애기 위해서는 많은 시일이 소요될 것이라고 지적했다.
실제로 데이터를 입력하고 만드는 것은 사람이 해야 할 일이지만 현실 세계에서는 수많은 인간의 편견이 존재하고 있으므로 새로운 편견의 지속적인 식별을 통해 확인해야 할 데이터 양이 지속적으로 증가할 수밖에 없기 때문이다.
보고서는 "인간이 생성한 편향된 데이터와 인간이 만든 알고리즘에서 편향을 식별하고 제거하기 위해 지속적인 데이터 확인과 검증이 필요하다"며 "데이터와 알고리즘에 대한 테스트를 수행하고 다른 모범 사례를 적용해 이를 최소화해야 할 것"이라고 말했다.
세계 각국은 AI의 신뢰성 확보를 위한 제도 마련, 과감한 투자 등을 하고 있다. 국내에서도 지난 5월 '신뢰할 수 있는 AI 실현전략'을 발표하며 AI 신뢰성 확보에 사활을 걸었다. 신뢰성 확보를 위한 원천기술 개발에 향후 5년간 최소 650억원 이상을 투입할 계획이다.
AI는 인간이 더 공정한 결정을 내리는 데 도움이 될 가능성이 있지만 AI 시스템에서도 공정성을 위해 신중하게 노력해야 한다는 지적이 나온다.
이러한 노력 중 하나는 AI를 사용해 인간 편향성의 영향을 식별하고 줄이는 것이다. 또 시스템 자체를 개선해 데이터를 활용하는 방법부터 개발, 배포, 사용하는 방법에 이르기까지 인간 및 사회적 편견을 영속화하거나 편향성 및 관련 문제를 자체적으로 방지할 수 있는 신기술을 개발하는 노력이 필요하다.
보고서는 "이러한 것이 가능하기 위해서는 기술 개선, 운행 관행 및 윤리 표준을 추가로 개발하고 구현하기 위해 국가뿐 아니라 산·학·연의 적극적인 협조와 지원이 필요하다"고 말했다.