• 검색

금융사 AI 금융서비스 관리 더 촘촘해진다

  • 2021.07.08(목) 15:27

금융위, '금융 분야 AI 가이드라인' 발표
내부통제 시스템·지속관리 방안 만들어야

앞으로 금융회사들은 챗봇, 로보어드바이저 등과 같은 인공지능(AI)이 활용되는 서비스를 제공할 때 서비스 제공으로 발생할 수 있는 부작용을 최소화 할 수 있는 리스크 관리 시스템을 만들어야 한다. 

8일 금융위원회는 도규상 금융위 부위원장 주재로 연 '제1차 디지털 금융협의회 데이터 분과회의'를 열고 이같은 내용이 담긴 '금융분야 AI 가이드라인'을 마련했다.

이에 따르면 AI를 금융거래나 대고객서비스에 적용한 모든 금융회사는 앞으로 △AI윤리 △AI조직 △위험관리 등 준칙을 지켜야 한다.

구체적으로 금융사는 AI 서비스 제공에 앞서 회사별 가치, AI 활용 상황(고객군, 서비스 내용 등)등에 따라 AI 서비스 개발·운영시 준수해야할 원칙·기준을 수립해야 한다.

또 AI의 잠재적 위험을 평가하기 위해 구성원의 역할, 책임, 권한을 서비스 전 단계에 걸쳐 구체적으로 정의해야 한다. 다시말해 AI 전담 인력을 투입해 AI서비스를 제공함에 있어 발생할 수 있는 모든 리스크를 사전에 차단할 수 있도록 해야 한다는 얘기다.

AI서비스가 개인권리에 중대한 위험을 초래할 수 있는 서비스의 일종인 경우 위험관리를 좀 더 촘촘하게 해야 한다. 이 서비스는 신용평가, 대출심사, 보험심사, 카드발급 심사 등으로 이에 대한 내부통제·승인절차 등을 마련하고 별도의 책임자를 지정해야 한다. 

AI가 사람의 의사결정을 대신하는 이자율 산정 등의 서비스에는 필요시 사람이 직접 AI시스템을 감독하고 통제하도록 시스템도 설계해야 한다. 동시에 AI시스템 성능을 주기적으로 모니터링하고 AI개발 환경의 보안취약성 점검 시스템도 마련해야 한다.

AI서비스가 출시된 이후 AI가 학습하는 과정에서 데이터의 출처·품질·편향성·최신성 등을 조사·검증하고 개선노력도 지속해야 한다. 올해 챗봇 '이루다'를 사례처럼 AI가 편향된 데이터, 혐오발언 등을 AI가 학습하지 못하도록 지속해서 관리해야 한다는 얘기다.

정보보호에 대한 기준도 마련됐다. 이에 따라 금융회사는 AI 개발 과정에서 개인신용정보 오·남용 방지, 불필요한 개인신용정보 처리 최소화 시스템 등을 마련 해야 한다.

이 외에 AI서비스가 제공되는 과정에서 발생할 수 있는 소비자 차별 등을 최소화 하는등 공정성을 끌어올리기 위한 작업도 지속해야 한다.

예를 들어 금융소외계층에 대한 금융접근성 제고를 목적으로 한 정책금융상품 등 결과적 평등이 중요한 금융상품의 경우, 집단간 대출 승인율 등 인구통계적 동등성 지표를 기준으로 평가하게 해야 한다. 또 소속 집단 등과 무관하게 자격이 있는 소비자를 판단해야 하는 신용평가, 카드발급심사 등의 경우, 집단간 재현율(전체 대출적격자 중 AI가 대출적격자로 예측한 비율)등 기회의 균등 기준으로 서비스가 개발됐는지도 지속 점검해야 한다.

도규상 부위원장은 "앞으로는 AI 등 기술혁신이 금융의 질적변화를 주도할것으로 전망된다"면서도 "AI 기술의 안전성 등에 대한 사회적 신뢰가 충분하지 않은 만큼 금융분야 AI 가이드라인을 통해 AI 금융서비스에 대한 사회적 신뢰를 공고히 하고 지속가능한 금융혁신 환경 조성을 추진하겠다"고 말했다.

이어 "AI 가이드라인에서는 금융산업의 책임성 강조, AI 학습용 데이터의 정확성·안전성 확보, AI 금융서비스의 투명성·공정성 담보, 금융소비자 권리의 엄격한 보장 등을 핵심가치로 해 만들어졌다'고 설명했다.

금융위는 이번에 마련된 내용의 가이드라인이 연내 시행될 수 있도록 한다는 계획이다. 이 과정에서 금융업권, 기능, 서비스별 특성을 고려해 가이드라인을 구체화한 세부 실무지침도 마련하기로 했다. 

naver daum
SNS 로그인
naver
facebook
google