전문가들이 한자리에 모여 인공지능(AI) 에이전트 시대에 필요한 프라이버시 보호 방안과 해법을 논의했다.
17일 서울 그랜드하얏트호텔에서 열린 '글로벌 프라이버시 총회(Global Privacy Assembly)에서 'AI에이전트와 프라이버시'를 주제로 패널 세션이 진행됐다.
AI에이전트는 목표 달성을 위해 스스로 문제를 분석하고 필요한 작업을 자율적으로 수행한다. 이를 위해 방대한 데이터에 접근하고 외부 시스템과 연동해 행동하기 때문에 프라이버시를 침해할 위험이 커지고 있다.
산업계에서는 기업이 선제적으로 안전장치 설계에 참여해야 한다는 목소리가 나왔다. 김유철 LG AI 연구원 전략 부문장은 "서비스 초기 단계부터 프라이버시 보호 장치를 설계하는 것이 산업계의 의무"라며 "기업들이 표준화와 책임있는 설계에 선제적으로 참여해야 사회적 신뢰를 얻을 수 있을 것"이라고 말했다.
케이트 샬렛 구글 글로벌 프라이버시 안전 및 보안 부서장도 "에이전트AI의 데이터 수집 방식은 기존(생성형 AI)과 달리 반복 학습이 매우 중요하다"며 "새로운 형태의 안전 장치가 반드시 필요하다"고 제언했다.
이어 "에이전트 모델은 사용자가 추론 과정을 이해할 수 있도록 투명성을 확보해야 한다"며 "일정 관리 등 특정 목적에 필요한 데이터만 접근하도록 제한하고 인간의 감독 아래 운영돼야 한다"고 덧붙였다.
책임 규제에 대한 논의도 이어졌다. 데이터를 통제하고 관리하는 주체가 분명해야 한다는 설명이다. 존 에드워즈 영국 정보위원회(ICO) 위원장은 "AI에이전트 시대의 가장 큰 과제는 책임 주체를 결정하는 데 있다"며 "규제기관이 이를 명확히 규정해야 할 것"이라고 말했다.
이를 위해 산업계와 규제기관이 협력해야 한다는 점도 강조했다. 존 위원장은 "GDPR(일반 데이터 보호 규정) 등 기존 규제도 적용할 수 있지만 산업계와 규제기관이 서로 협력하고 정보를 공유하는 것이 중요하다"고 말했다.
























