6화. 금융권의 향후 과제

하이퍼오토메이션을 활용한 국내외 사례와 금융권 시사점
시리즈 총 7화
2023.06.13

읽는시간 4

0

하이퍼오토메이션 활용 시 △규제 도입 △고객 정보 침해 △신뢰성 한계 △투명성 문제 등에 대한 대책 마련과 함께 구체적 활용도를 극대화할 필요가 있음

○ [규제 도입] 금융권에 AI 업무 자동화가 빠르게 확산될 것으로 예상되는 가운데, AI 관련 규제에 대비하면서 충분한 대응책 마련을 위한 노력이 필요

 

  • 금융위원회는 작년 7월 AI 활용 시 고려할 원칙 등을 규정한 ‘금융 분야 AI 가이드라인’을 발표함

    - △금융업의 책임성 △ AI 학습 데이터의 정확성 및 안전성 확보 △금융 서비스의 투명성 및 공정성 담보 △엄격한 금융 소비자 권리 보장 등의 4가지 핵심 가치 구현을 표방함

  • KB금융은 국내 금융그룹 최초로 ‘AI 윤리 기준’을 제정, AI 기술을 활용하는 금융 서비스의 신뢰 향상을 위해 도입·운영·관리 단계별 7가지 윤리 가치를 제시함

    - AI 기술 도입 시 ①공정과 포용 ②참여와 협력 ③디지털 역량을, AI 활용 시 ④데이터 관리 ⑤투명한 활용을, AI 통제와 관리 시 ⑥통제 가능성 ⑦안전과 책임을 추구해야 할 윤리 가치로 제시함

  • EU는 2021년 4월 AI를 전면적으로 규제하는 AI법(Artificial Intelligence Act) 초안을 발표했으며, 올해 최종 타협안 마련을 위한 3자 협상을 개시할 예정

    - 규정 위반 업체에게 글로벌 연매출의 최대 6%를 벌금으로 부과하기로 결정해 파급 효과가 상당할 것으로 예상함

  • 미국은 2019년 4월 편향 및 차별 위험이 있는 AI 알고리즘을 개발하는 기업의 책임을 강화해야 한다는 취지의 ‘알고리즘 책임법(Algorithmic Accountability Act)’을 발의함

○ [정보 유출 우려] 고객 정보를 다루는 금융권은 고객 데이터를 비식별화하여 오남용을 방지하고, 불필요한 고객 정보 처리를 최소화하는 등의 시스템 마련이 필요

 

  • 다양한 기술을 다루며 자동화하는 과정에서 고객 정보와 내부 정보 유출 우려가 대두됨

    - (고객 정보 유출) 이탈리아에서 3월 말 챗지피티(ChatGPT)로 인해 금융 정보를 포함한 개인 정보가 유출되는 사이버 보안 문제가 발생. 이탈리아 당국은 세계 최초로 챗지피티 사용을 일시 중단하고 개발사인 오픈에이아이(Open AI)에 대한 조사 착수에 나섬

    - (내부 정보 유출) 삼성전자 디바이스솔루션(DS) 부문에서 지난 3월 말 챗지피티 사용 허가가 나자마자 반도체 공정 중요한 정보가 유출되는 사이버 보안 문제가 발생해 챗지피티 사용을 일시 중단하고 관련 지침을 마련 중

  • 안전한 고객 정보 보호를 위한 선제적인 내부 대응 시스템 마련이 필요

    - 미국표준기술연구소는 새로운 금융 리스크 대응 방안으로 기업 스스로 리스크를 인식하고 기업 환경에 맞는 보안 통제 시스템을 선택하는 ‘AI 위험관리 프레임워크(Risk Management Framework)’ 를 발표함⁵

    - 뉴욕주는 ‘금융 사이버 보안 규정’에서 금융권이 내부 위험평가 등을 통해 보안 기술 등을 자율 채택하도록 규정함

○ [신뢰성 한계] 하이퍼오토메이션의 핵심 구성 요소인 빅데이터와 AI 기술의 안정성에 대한 사회적 신뢰도가 충분하지 않아 금융권 업무 적용에 현실적 어려움이 존재함

 

  • AI에 학습되는 데이터가 특정 편견을 포함하고 있다면 편향된 결과가 나올 수밖에 없으므로 편향성, 공정성 문제가 발생하지 않도록 AI 금융 서비스 신뢰성 검증 방안을 마련

    - 매사추세츠공과대학 내 세계적인 미디어 융합기술연구소인 MIT미디어랩이 2018년 젠더 셰이즈(Gender Shades)라는 프로젝트를 통해 마이크로소프트, IBM, 메그비(Megvii, 曠示)의 얼굴 인식 기술을 분석한 결과, 백인 얼굴에 비해 흑인 얼굴 인식 정확도가 떨어진다는 사실이 밝혀짐

    - 마이크로소프트는 2016년 트위터에 테이(Tay)라는 AI 챗봇을 공개했으나, 테이가 트윗을 주고받는 과정에서 인종 차별적이고 폭력적인 글을 남겨 16시간 만에 서비스 운영이 중단됨

○ [투명성 문제] 공정한 기준에 따라 금융상품과 서비스를 제공한다는 믿음을 주는 것이 중요

 

  • 건전한 상식과 사회 규범에 어긋나지 않는 시스템 운영을 통해 최적의 금융 서비스를 제공하고, 사용자가 AI의 판단 근거를 이해할 수 있는 투명성 확보가 필요

    - 국내 AI 스타트업인 스캐터랩이 개발한 대화형 인공지능 챗봇 ‘이루다’가 출시 직후 자연스러운 대화로 주목을 받았으나, 악성 사용자들과의 대화에서 나온 혐오 발언을 그대로 학습하고 개인정보 유출 사고를 일으키면서 AI 윤리가 사회적 갈등으로 확대된 바 있음

    - 미 국방위고등연구계획국(DARPA)은 2017년부터 사람이 AI의 의사결정 과정을 이해할 수 있는 ‘설명 가능한 AI 연구(Glass Box)’를 진행 중

    - 딜로이트는 지난 3월 발표한 보고서에서 AI에 대한 신뢰를 강화하기 위해 ‘데이터 투명성’을 강조하면서, 학습에 사용된 데이터 수집 이유와 사용 방식을 사용자가 납득할 수 있는 프로세스를 마련해야 한다고 강조함

⁵ “Trends and Future of Digital Personal Assistant,” Electronics and Telecommunications Trends, Jan. 2021.

진영리

KB경영연구소

진영리

금융용어사전

KB금융그룹의 로고와 KB Think 글자가 함께 기재되어 있습니다. KB Think

이미지