대표적 AI 규제 사례 : EU 와 미국

AI 규제의 필요성과 도입 사례, 그리고 이를 둘러싼 갈등 2화
시리즈 총 5화
2024.12.23

읽는시간 4

0

■ 전 세계적으로 AI에 대한 규제가 필요하다는 공감대가 형성되고 있으며, AI 규제와 관련해서는 유럽연합(EU)이 가장 앞서 있고 미국도 최근 적극적인 모습을 보이고 있음

[EU]

■ EU는 지난 5월 21일 AI를 포괄적으로 규제하는 세계 최초의 법으로 「AI법(AI Act)」을 최종 확정

○ 「AI법」은 AI의 윤리적 사용을 보장하여 시민 안전을 보호하고 AI 시스템과 인간의 상호작용에서 발생할 수 있는 위험에 대비하기 위해 제정된 법률

○ 2021년 EU 집행위원회가 최초로 법안을 제안한 이후, 2024년 2월 27개 회원국의 최종 합의를 거쳐 3월 유럽의회 본회의를 통과하고 5월 EU 이사회에서 최종 승인됨

■ 「AI법」은 AI 시스템을 인간의 건강, 안전, 기본권에 미치는 위험 정도에 따라 네 단계로 분류하고 규제 수준을 차등화

○ AI 시스템을 ‘수용 불가 AI’, ‘고위험 AI’, ‘제한적 위험 AI’, ‘최저 위험 AI’의 네 단계로 분류

[그림 1] 「AI법」의 네 가지 AI 시스템 구분

'EU법'의 네가지 EU 시스템을 구분한 피라미드형 그림이다.

자료: EU

○ ‘수용 불가 AI’는 인간의 존엄성·자유·평등·차별 금지·민주주의·법치주의 등 EU의 기본 가치를 위배하는 AI 시스템으로, 특별한 예외 규정이 없는 한 원칙적으로 사용 불가

• 성별·인종 등에 기반한 생체 인식 분류를 비롯해 사회적 차별을 심화하거나 개인의 민감한 정보를 추론하는 AI, 사회 구성원 감시에 활용되어 자유와 권리를 침해하는 시스템이 해당됨

• 위반 시 3천500만 유로(약 527억 원)와 전년도 글로벌 매출액의 7% 중 더 큰 금액이 벌금으로 부과됨

○ ‘고위험 AI’는 교육·법 집행·직원 채용 등에 활용되어 인간의 건강·안전·기본권에 중대한 위험성을 초래할 수 있는 AI 시스템을 의미

• 출시 전 AI 시스템 관련 정보 공개의 투명성·신뢰성·보안·기술명세서 등에 관한 적합성 평가를 받아야 하며, 출시 이후에도 이와 관련한 지속적인 모니터링과 보고가 필요

• 위반 시 최대 1천500만 유로(약 266억 원)와 전년도 글로벌 매출액의 3% 중 더 큰 금액이 벌금으로 부과됨

○ ‘제한적 위험 AI’는 챗봇 등 인간과 상호작용을 하거나, 딥페이크 등 조작된 정보를 생성하거나, 감정을 인식하는 시스템 등을 의미

• 시스템 제공자는 사용자가 AI 시스템과 상호작용하고 있다는 사실을 고지해야 하는 투명성 의무가 부과됨

• 위반 시 최대 750만 유로(약 113억 원)와 전년도 글로벌 매출액의 1% 중 더 큰 금액이 벌금으로 부과됨

○ ‘최저 위험 AI’는 앞서 언급된 AI 시스템보다 위험이 낮은 AI 시스템을 의미하며, AI를 활용한 비디오 게임 또는 이메일 스팸 필터 등이 해당됨

• 시스템 제공자는 AI 활용으로 발생 가능한 위험을 최소화하기 위한 행동 강령을 작성하고 이를 자발적으로 적용해야 함

■ 「AI법」은 지난 8월 1일 공식 발효되었으나 현재는 법에서 정하는 어떤 의무도 부과되지 않고 있으며, 향후 2~3년에 걸쳐 단계적으로 의무 사항들이 부과될 예정

○ 발효 6개월 후인 2025년 2월 1일부터 ‘수용 불가 AI’에 대한 규정이 적용되며 「AI법」에 기반한 실질적인 규제가 시작됨

○ 발효 12개월 후인 2025년 8월 1일에는 ‘범용 AI’에 대한 규제가 시작되며, 24개월 후인 2026년 8월 1일에는 ‘고위험 AI’에 대한 규제가 시행됨
 

• 「AI법」은 앞서 언급한 네 가지 AI 시스템 구분 외에 추가적으로 ‘범용 AI’도 정의하고 있음
 

- ‘범용 AI’는 거대언어모델과 같이 다양한 업무에 활용 가능한 모델 또는 이를 활용한 시스템을 의미
 

• ‘범용 AI’ 모델 공급자는 모델의 개발 및 테스트 관련 기록을 보관하고, 모델을 활용하려는 업체에 관련 정보를 제공하며 EU 집행위원회와 협력해야 하는 의무가 부과됨
 

- 위반 시 최대 1천500만 유로(약 266억 원)와 전년도 글로벌 매출액의 3% 중 더 큰 금액이 벌금으로 부과됨

[표 1] EU 「AI법」에서 정의하는 위험 구분별 주요 AI 시스템 유형 및 규제 사항

EU 'AI법'에서 정의하는 '위험 구분별' '주요 AI 시스템 유형' 및 '규제 사항'을 정리한 표이다.

자료: 과학기술정보방송통신위원회

[미국]

■ 미국은 아직 EU의 「AI법」과 같은 포괄적인 규율 체계는 정비되지 않았으나 행정명령 등의 형태로 AI에 대한 규제를 강화하고 있음

※ 행정명령은 국민 일반에 대한 강제력 없으며 행정기관 내에서만 효력을 지님

○ 바이든 행정부는 2023년 10월 30일 「안전하고 보안이 보장되며 신뢰할 수 있는 인공지능의 개발과 사용¹에 관한 행정명령」(이하 AI 행정명령)을 발령

 

• AI가 엄청난 잠재력과 함께 위험을 내포하고 있음을 명시하고 공공과 민간, 학계와 시민사회의 공동 노력으로 위험을 완화해야 한다고 선언
 

• AI 시스템의 개발 및 사용 과정에서 행정부가 준수하여야 하는 여덟 가지 원칙을 규정하고 AI 관련 정책 입안 및 이행을 위한 ‘백악관 AI위원회’를 신설

¹ Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence

[표 2] 미국의 AI 행정명령에 포함된 여덟 가지 원칙

미국의 'AI 행정명령'에 포함된 '여덟 가지 원칙'을 정리한 표이다.

자료: 과학기술정보방송통신위원회

○ AI 행정명령은 EU의 「AI법」과 같은 체계적인 법 체계에 해당하지 않지만, 연방 차원의 AI 규제 시도로서 의의가 있음

■ 연방 차원이 아닌 각 주 차원에서 강력한 AI 규제를 시도하는 움직임도 나타나고 있음

○ 캘리포니아주에서는 지난 8월 AI 규제 법인 「첨단 AI 모델을 위한 안전 및 보안 혁신법」² (이하 SB1047)이 주 의회를 통과

• 규제 대상에 해당하는 AI 모델은 공개 전 ‘안전성 테스트’를 실시하고, AI 모델이 문제를 일으킬 경우 즉시 작동을 중단시킬 수 있는 ‘킬 스위치(Kill Switch)’ 기능 구현을 의무화
 

- 개발 비용 1억 달러를 초과하는 AI 모델이 규제 대상에 해당하며, AI 모델이 ‘치명적 위해(critical harm)’를 일으킬 가능성이 없는지 사전에 검증하는 안전성 테스트를 의무화
 

- AI 모델이 문제를 일으킬 경우 즉시 작동을 중단시킬 수 있는 기능을 구현해야 하며, 기업이 개발한 AI 모델의 문제점을 고발하는 ‘내부 고발자’에 대한 보호 조치도 마련해야 함
 

- AI가 인명 피해나 5억 달러 이상의 재산 피해를 일으킬 경우 주 법무장관은 개발사를 대상으로 민사 소송을 제기할 수 있음

² The Safe and Secure Innovation for Frontier Artificial Intelligence Models Act

[표 3] SB1047 주요 내용

'SB1047' 주요 내용을 정리한 표이다.

자료: 캘리포니아주 법률 정보(California Legislative Information), 언론 종합

○ SB1047은 미국의 첫 AI 규제 법이면서 빅테크를 포함한 다수의 AI 기업이 소재하는 캘리포니아주에서 마련된 법안이라는 점에서 의의가 있음

 

• 구글, 메타, 오픈AI, 앤트로픽 등 주요 AI 기업은 캘리포니아주에 기반을 두고 있으며, 본사 소재지에 상관없이 캘리포니아주에서 사업하는 모든 기업은 SB1047 적용 대상에 포함됨
 

• 다만, 주 의원들과 달리 일부 연방 의원들은 SB1047의 필요성에 대해 의문을 제기
 

- 캘리포니아주 의원들은 연방 정부가 AI 규제에 소극적이므로 주 차원에서 규제에 나서야 한다고 주장
 

- 그러나 낸시 펠로시 등 일부 연방 의원들은 SB1047이 기업 혁신을 저해하며 주 차원의 규제 법은 필요하지 않다고 주장

○ SB1047은 개빈 뉴섬(Gavin Newsom) 캘리포니아 주지사가 최종 승인하지 않아 현재 법제화가 보류된 상태

 

• 뉴섬 주지사는 SB1047이 대규모 AI 모델에만 적용되어 한계가 있다고 지적하며, ‘AI 대모’로 불리는 페이페이 리(Fei-Fei Li) 스탠퍼드대 교수 등과 함께 새로운 법안을 추진하고 있다고 밝힘

■ 트럼프의 재선에 따라 미국의 AI 규제 방향에 변화가 예상됨

○ 미국의 비영리 공공정책 연구기관인 알스트리트연구소(R Street Institute)³는 지난 11월 트럼프의 재선에 따라 바이든 행정부의 AI 행정명령이 철회되고 AI 정책이 감독 강화에서 규제 완화로 선회할 것으로 예측
 

• 트럼프는 2023년 12월 선거 유세와 2024년 7월 공화당 전국위원회에서 AI 혁신을 저해하는 바이든 행정부의 AI 행정명령을 철회하겠다고 밝힘

³ 2012년 설립되어 워싱턴 DC에 본부를 두고 있음

[기타]

■ AI 조약 등 국가 간 공동 규제 노력도 존재하며, 중국ㆍ영국ㆍ일본 등도 AI 규제를 위해 다양한 노력을 기울이고 있음

○ EU·미국·영국 등은 지난 9월 AI 규제를 위한 국제 조약⁴에 서명. AI 기술 개발을 주도하는 주요 주체들을 중심으로 최초로 AI 규제를 위한 글로벌 기준을 제시
 

• AI가 인간에게 해롭거나 차별적인 결과를 도출하는 경우 해당 시스템이 개발된 국가에 책임이 있으며, 인간의 평등과 개인정보 보호 권리를 존중하는 방향으로 개발되어야 함을 명시. 조약은 크게 세 가지 특징을 보임

 

① EU 「AI법」과 유사하게 AI 시스템의 위험성을 중심으로 접근하며, AI 시스템은 물론 이를 활용하여 생성한 콘텐츠의 투명성과 고위험 AI 시스템에 대한 규제를 강조
 

② AI 시스템 사용에 관한 투명성 및 책임성을 보장하기 위해 관련 정보를 문서화하고 AI 시스템에 영향을 받는 주체에게 이를 제공하며, 효과적인 이의 제기 절차를 마련할 것을 규정
 

③ AI 시스템의 잠재적인 위험 관리를 위해 정기적인 위험 및 영향 평가를 시행

 

• 이 조약은 캐나다·이스라엘·일본·호주 등 50여 개국이 2년에 걸쳐 초안을 마련. 아이슬란드·이스라엘 등도 조약에 서명하였으며 향후 다른 국가들도 참여할 것으로 예상(한국은 현재 미참여)

⁴ Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law

○ 중국은 미·중 기술패권 경쟁 속 자국의 AI 발전을 지원하는 방향으로 AI 규제를 추진 중

 

• 2023년 8월 AI에 대한 감독을 강화하기 위해 ‘생성형AI 서비스 잠정 관리 방법’을 시행
 

- AI의 건전한 발전과 표준화를 추진하고 국가 안보, 사회 공공의 이익과 권익 보호를 추구하는 동시에 AI 기술 개발 촉진을 위한 지원 체계를 제시하여 AI 산업의 혁신과 발전을 장려
 

• 2023년 10월 개발도상국의 이해관계를 중시한 ‘글로벌 AI거버넌스 이니셔티브’를 발표하여 AI 관련 규제 및 표준에 대한 국제적 리더십 구축을 시도
 

• 2024년 3월 ‘전문가 제안’이라고 불리는 AI 법안 초안을 공개. AI로 인한 위험으로부터 사용자를 보호하는 내용도 포함되어 있지만, 우선적으로 AI 산업 발전에 초점을 맞추고 있음

○ 영국과 일본도 각자 AI 관련 규제를 추진 중

 

• 영국은 2023년 11월 세계 최초로 AI 관련 글로벌 정상회담인 「AI 안전성 정상회의(AI Safety Summit)」를 개최하였으며, 2024년부터 AI 법률 제정에 관해 논의 중
 

• 일본은 지난 5월 AI 규제 법 마련을 위한 검토를 시작하였다고 발표

○ 한국은 다수의 AI 관련 법률이 발의되었으나 아직 정식 법제화된 경우는 없으며, 정부에서 AI가 안전하게 활용될 수 있도록 권고안을 마련하여 적용하고 있는 상황

 

• 금융위원회는 금융 서비스 분야의 AI 활용과 관련하여 금융 소비자 보호 및 금융시장 건전성 확보를 위해 「금융 분야 AI 가이드라인」을 발표(2021년 7월)
 

• 국가인권위원회는 AI 개발 및 활용 과정에서 발생할 수 있는 인권 침해와 차별 방지를 위해 「인공지능 개발과 활용에 관한 인권 가이드라인」을 발표(2022년 5월)
 

• 개인정보보호위원회는 개인정보 침해 위험을 최소화하면서 AI 발전에 필요한 데이터를 안전하게 활용하기 위한 「인공지능 시대 안전한 개인정보 활용 정책 방향」을 발표(2023년 8월)

김준산

KB경영연구소

김준산

금융용어사전

KB금융그룹의 로고와 KB Think 글자가 함께 기재되어 있습니다. KB Think

이미지