첫 화면 메뉴 바로가기 본문 내용 바로가기

한국저작권위원회

인기검색어
폰트, 음악, PPT, 일러스트
전체 메뉴
닫기

저작권동향

저작권동향 상세보기
제목 [이슈리포트] 2023-19 유럽연합(EU) 인공지능법안(AI Act)과 저작권법 - ChatGPT 등 생성형 인공지능과 관련하여 -(박희영)
담당부서 국제통상협력팀 손휘용(0557920089) 등록일 2024-01-04
첨부문서

[이슈리포트] 2023-19 유럽연합(EU) 인공지능법안(AI Act)과 저작권법(박희영).pdf 미리보기

유럽연합(EU) 인공지능법안(AI Act)과 저작권법

- ChatGPT 등 생성형 인공지능과 관련하여 -

 

 

 독일 막스플랑크 국제형법연구소 연구원, 법학박사

박희영

1. 머리말

저작권법으로 보호되는 콘텐츠를 사용하여 생성형 인공지능(Generative Artificial Intelligence)을 학습시키는 것이 허용되는지 전 세계에서 논란이 되고 있다. 특히 202211월 말 Open AI가 대화형 인공지능인 ChatGPT를 출시한 이후, 새로운 AI 애플리케이션이 계속 등장하고 있다. 생성형 인공지능(AI) 시스템은 텍스트, 이미지, 음악, 영화 등을 생성하여 예술과 창의성에 대한 인간의 관점을 변화시킬 뿐만 아니라, 인공지능이 저작권에 미치는 영향에 대한 논의의 촉매제 역할을 하고 있다.

그리하여 유럽과 미국을 비롯한 여러 국가에서 창작산업은 매우 불안정한 상황을 맞이하게 되었다. 미국에서는 올해 초 이와 관련한 여러 소송이 제기되었다. 그중에서 지난 1030일 법원의 중간 재판 결과가 나왔다. 미국 캘리포니아 북부 연방지방법원 윌리엄 오릭(William H. Orrick) 판사는 세 명의 아티스트(Andersen, McKernan, Ortiz)Stability AI, DeviantArt, Midjourney를 상대로 제기한 소송에서 Andersen이 제기한 Stability AI의 직접 복제권 침해만 유지하고, 나머지는 모두 기각했다, 세 명의 아티스트는 이들 AI 제공자에 대해서 직접 저작권 침해, 간접 저작권 침해, DMCA의 기술적 보호조치 위반, 퍼블리시티권 등을 주장하였다. 하지만 McKernanOrtiz의 청구는 침해를 주장한 자신들의 저작물이 저작권청에 등록되어 있지 않다는 이유로 기각되었다. 법원은 Stability AI의 직접 복제권 침해 소송만 유지했지만, 이 침해가 공정사용 조항에 의해서 정당화되는지에 대해서는 아직 아무런 언급을 하지 않았다.

독일에서도 생성형 AI로 인한 저작권 소송이 진행 중이다. 스톡 사진작가 로베르트 크네슈커(Robert Kneschke)2023427일 대규모 AI 시스템 학습 데이터에서 자신의 사진을 삭제해 달라고 비영리 단체인 LAION을 상대로 독일 함부르크 지방법원에 소송을 제기했다. 이 단체는 머신 러닝 모델에 사용되는 오픈소스 AI와 오픈소스 데이터 세트를 제공하고 있다. 사진작가는 이 소송에서 AI 시스템의 학습에 이용된 이미지 저작자에 대한 보상을 요구하고 있다. 이처럼 독일과 다른 유럽 국가에서는 저작자 및 권리자 단체가 AI 학습에 사용된 저작물에 대하여 저작자가 보상을 받을 수 있도록 법적 변화를 요구하고 있다. 특히 유럽의 권리보유자들은 현재 유럽연합 집행위원회, 의회, 이사회 사이의 삼자협상(Trilogue)이 진행 중인 인공지능법안에 자신들의 이익이 반영되기를 기대하고 있다.

유럽연합(EU) 집행위원회는 20214월 세계 최초로 인공지능법안(Artficial Intelligence Act, AI Act)을 제정할 것을 EU 이사회와 의회에 제안했다. 인공지능법안은 회원국에서 이행절차를 거쳐야 하는 지침’(Directive)이 아니라 직접 적용되는 규칙’(Regulation)이다. 이에 대하여 EU 이사회는 2022126일 집행위원회의 제안에 대한 수정안을 채택했고, 유럽의회도 2023614일 집행위원회안에 대한 수정안을 의결했다. 그동안 EU 집행위원회, 이사회, 의회는 인공지능법안에 대한 삼자협상을 진행했다. 그런데 지난 1110일 이 삼자협상이 결렬되었다. 의회가 제안안 범용 AI 모델 규제에 대해 독일, 프랑스, 이탈리아 등 개별 정부가 반대했기 때문이다. Llama2 GPT-4와 같은 거대 언어모델을 포함하는 범용 AI 모델에 대한 규제가 너무 엄격하면 유럽의 혁신적인 스타트업체들이 미국과 중국의 경쟁업체에 뒤처질 수 있기 때문이다. 20246EU 총선 이전에 이 법을 마무리하기 위해서 적어도 12월에는 합의안이 도출되어야 했으며, 그렇지 않을 경우 인공지능분야에서 세계 표준을 만들려고 한 EU의 야심찬 계획은 수포로 돌아갈 상황이었다. 하지만 126일부터 3일간 진행된 마라톤 협상끝에 마침내 잠정 합의안을 도출하였다. 이제 삼자합의안은 자구 수정 등 기술적인 절차를 완료하면, 의회의 승인 등 형식적인 절차를 거쳐 세계 최초의 인공지능법안으로 탄생하게 된다. 2년의 경과 기간 후 유럽연합 회원국에 직접 적용될 전망이다.

이 잠정 협상안에는 특히 저작권 보호와 직접 관련된 두 가지 내용이 포함되어 있다. 하나는 저작권으로 보호되는 콘텐츠를 생성형 AI 학습에 이용하는 경우 범용 AI 모델 제공자가 이에 대한 요약 정보를 공개할 의무이고, 다른 하나는 텍스트 및 데이터 마이닝(TDM)으로부터 콘텐츠를 보호하기 위해 권리자가 설정한 사용유보를 준수할 의무이다. 따라서 EU 인공지능법안들이 저작권법과 관련하여 어떠한 내용을 담고 있는지 검토하는 것은 중요한 의미를 가진다.

 

2. EU 집행위원회 인공지능법안

20214EU 집행위원회(이하 위원회’)는 인공지능법안을 제안했다(이하 위원회안’).

 

(1) 인공지능법안의 목적

 

위원회는 기본권과 가치에 관한 유럽법을 존중하는 안전한 인공지능(AI) 시스템을 보장하고, 투자와 혁신을 촉진하기 위해 인공지능법안을 제조물안전법으로 설계하였다. 위원회안은 위험 기반 접근 방식을 채택하여 투자 및 혁신을 촉진하고 기본권 보장 사이에 균형을 맞추는 것을 목적으로 한다.

 

(2) 인공지능 시스템의 개념 및 유형

 

위원회안은 인공지능 시스템의 개념을 광범위하게 정의하고 있다. 즉 인공지능 시스템(artificial intelligence system, AI system)이란 부록 에 열거된 기술 및 접근 방법 중 하나 또는 그 이상을 사용하여 개발되고, 인간이 설정한 일련의 목표와 관련하여 상호작용하는 환경에 영향을 미치는 콘텐츠, 예측, 추천 또는 결정과 같은 산출물을 생성할 수 있는 소프트웨어를 말한다”(위원회안 제3조 제1). 부록 에서는 세 가지 유형의 기술 및 접근 방법을 열거하고 있다: 딥러닝을 포함한 다양한 방법을 사용하는 지도 학습, 비지도 학습 및 강화 학습을 포함한 기계 학습 접근 방법, 지식 표현, 귀납적(논리) 프로그래밍, 지식 기반, 추론 및 연역적 엔진, (상징적) 추론 및 전문가 시스템을 포함한 논리 및 지식 기반 접근 방법, 통계적 접근법, 베이즈 추정법(Bayesian estimation), 검색 및 최적화 방법.

위원회안은 또한 AI 시스템의 위험 정도에 따라 허용해서는 안 되는 AI 시스템, 고위험 AI 시스템, 저위험 AI 시스템으로 구분하고 있다. 금지되는 시스템은 기본권 침해 등 EU 가치에 위배되는 AI 시스템을 말한다(위원회안 제5). 고위험 AI 시스템은 자연인의 건강, 안전, 기본권에 높은 위험을 야기할 수 있지만, 해당 시스템이 일정한 요건을 갖추면 허용되는 시스템이다. 저위험 AI 시스템은 고위험 AI 시스템에 요구되는 조건들이 강제되지는 않지만, 자발적 준수를 위한 행동강령(code of conducts)을 마련할 것이 권장된다(위원회안 전문 리사이틀 (81) 및 위원회안 제69).

위원회안은 대부분 고위험 인공지능 시스템과 관련된 규정들이다. 고위험 AI 시스템은 세 가지로 구분되어 있다(위원회안 제6). 다음의 경우에는 고위험 AI 시스템으로 분류한다: AI 시스템이 제품의 안전 구성 요소로 사용되거나 그 자체가 부록 에 나열된 유럽연합 조정 입법의 적용을 받는 경우, AI 시스템이 안전 구성 요소인 제품 또는 AI 시스템 자체가 제품으로서 부록 에 나열된 유럽연합 조정 입법에 따라 해당 제품의 시장 출시 또는 서비스 투입을 위해 제3자 적합성 평가를 받아야 하는 경우, 부록 에 언급된 AI 시스템에 해당되는 경우.

고위험 AI 시스템의 예로는 중요 인프라의 관리 및 운영을 위해 설계된 시스템(위원회안 제6조 제2, 부록 2), 고용, 근로자 관리 및 자영업 접근성 분야의 AI 시스템(위원회안 제6조 제2, 부록 4), 제품의 안전 구성 요소인 AI 시스템(위원회안 제30), 개인의 건강 및 안전 또는 기본권에 중대한 위험을 초래하는 독립형 AI 시스템(위원회안 제32) 등이 있다.

 

(3) 고위험 인공지능 시스템의 의무

 

위원회안은 고위험 AI 시스템에 특별한 요건을 부과하고 있다. 예를 들어 위험 관리 시스템(위원회안 제9조 제1), 적절한 데이터 거버넌스(위원회안 제10조 제2) 등이 있다. 그리고 무엇보다도 적합성 평가(위원회안 제19조 제1, 43)를 받도록 규정하고 있다. 이러한 적합성 평가와 관련하여 유럽연합 관보에 게재된 표준 또는 공통 사양을 준수하는 고위험 AI 시스템은 고위험 AI 시스템에 대한 요건도 준수하는 것으로 추정된다(위원회안 제40, 43조 제3). 위원회안은 또한 고위험 AI 시스템 제공자(provider), 수입업자, 유통업자, 사용자(user) 등의 의무도 규정하고 있다(위원회안 제3).

 

(4) 생성형 AI와 저작권 관련 내용

 

위원회안은 AI 애플리케이션의 제공자와 사용자에게 일정한 의무를 부과하고 있다. 이러한 의무의 이행은 해당 애플리케이션이 유럽연합 시민의 안전과 기본권 행사를 저해하지 않도록 보장하기 위한 것이다. 의무의 범위는 해당 AI 애플리케이션의 잠재적 위험의 정도에 따라 달라진다. 잠재적 위험은 사용 분야에 따라 측정된다. 위원회가 인공지능법안 초안을 작성할 때 특정 분야에서 사용될 AI 애플리케이션을 염두에 두었다. 하지만 위원회가 초안을 제출한 이후 이 기술은 빠르게 발전했다. 생성형 AI는 다양한 분야에서 사용될 수 있다. ChatGPT의 도움으로 생성된 텍스트는 엔터테인먼트나 학술연구에 사용될 수 있을 뿐만 아니라, 사법이나 중요 인프라 관리에도 사용될 수 있다. 따라서 이러한 유형의 AI는 위원회가 처음 구상한 범위를 뛰어넘는다. 이로 인해 적합성 문제가 발생하였다. 응용 분야는 다양하고 잠재적 위험성은 특정 응용 분야에 따라 달라진다.

ChatGPT와 같은 생성형 AI 시스템은 다양한 저작권 침해 문제를 야기하고 있다. 입력단계에서는 특히 학습데이터의 수집 및 학습의 복제권 침해 여부와 프롬프트(Prompt) 입력 내용의 보호 여부가 문제되고, 출력단계에서는 인공지능이 생성한 산출물의 보호 가능성이 문제된다. 하지만 위원회안은 생성형 AI나 저작권 문제에 관한 규정을 마련하지 않았다. 위원회는 위험 기반 접근 방식을 채택하여 투자와 혁신을 촉진하기 위해 인공지능법안을 제조물안전법으로 설계하였기 때문이다.

3. EU 이사회의 인공지능법안 수정안

EU 이사회는 2022126일 위원회안에 대한 수정안을 채택했다(이하 이사회안’).

 

(1) 인공지능법안의 목적

 

이사회안은 인공지능 시스템에 대한 일반적인 접근방법을 채택했다. 이에 따르면 인공지능법안은 EU 시장에 출시되어 사용되는 인공지능 시스템이 안전하고 기본권과 유럽연합의 가치에 관한 기존 법을 존중하도록 보장하는 것이다.

 

(2) 인공지능 시스템의 개념 및 유형

 

1) 인공지능 시스템의 개념

 

이사회는 인공지능 시스템과 단순한 소프트웨어 시스템을 구별하기 위해서 인공지능 시스템의 개념을 좁힐 것을 제안했다. 이사회안에 따르면 인공 지능 시스템’(AI 시스템)이란 자율성의 요소로 작동하도록 설계되고, 기계 및/또는 사람이 제공한 데이터 및 입력을 기반으로 기계 학습 및/또는 논리 및 지식 기반 접근 방식을 사용하여 주어진 목표를 달성하는 방법을 추론하고, 콘텐츠(생성형 AI 시스템), 예측, 추천 또는 결정과 같은 시스템이 생성하는 산출물을 생산하여 AI 시스템이 상호 작용하는 환경에 영향을 주는 시스템을 의미한다(이사회안 제3조 제1). 이러한 개념 정의에 따라서 이사회는 위원회안 부록 을 삭제할 것을 제안했다.

한편 이사회안 제4조는 기계 학습과 논리 및 지식 기반 접근법의 기술적 요소를 명시하기 위해 EU 집행위원회에게 시행령을 제정할 권한을 부여했다. AI 시스템 개발과 관련하여 완전히 새로운 접근 방식이 등장할 경우 집행위원회가 이 시행령을 통해서 곧바로 대응할 수 있도록 한 것이다.

 

2) 범용 인공지능 시스템의 개념

 

이사회안은 범용 인공지능 시스템’(General purpose AI systems)(GPAI 시스템)에 관한 새로운 규정을 제안했다(이사회안 제4a-4c). 이사회안 제3조 제1b항 따르면, GPAI 시스템은 오픈 소스 소프트웨어를 포함하여 시장에 출시되거나 서비스에 투입되는 방식에 관계없이 이미지 및 음성 인식, 오디오 및 비디오 생성, 패턴 감지, 질문 답변, 번역 등과 같이 일반적으로 적용 가능한 기능을 수행하고자 하는 인공지능 시스템이다. GPAI 시스템은 다수가 함께 사용될 수 있으며 다른 AI 시스템에 통합될 수도 있다.

GPAI의 개념 정의에는 거의 모든 소위 생성형 AI 모델이 포함된다. 이러한 모델은 학습 데이터를 기반으로 프롬프트에 응답하여 새로운 콘텐츠를 생성한다. 또한 ChatGPT GPT-4와 같은 대규모 언어 모델도 이 범주에 속한다.

이사회안에 따르면 GPAI 시스템에 대한 요건 및 의무를 적용하는 데 있어 시스템이 시장에 출시되었는지 또는 사전 학습된 모델로서 서비스에 투입되었는지 여부와 모델의 추가 미세 조정(Fine tuning)GPAI 시스템 사용자에 의해 수행되는지 여부는 무관하다(이사회안 제4a조 제2).

 

(3) 고위험 AI 시스템의 의무

 

고위험 인공지능 시스템 또는 이의 구성 요소로 사용될 수 있는 GPAI 시스템은 제3편 제2(8조 내지 제15)에 규정된 요건을 준수해야 한다(이사회안 제4b1). 이사회안에 따르면 이러한 요건은 향후 인공지능법안이 발효된 후 18개월 이내에 집행위원회가 제정한 시행령에서 구체적으로 정하여 적용하도록 하였다(이사회안 제4b조 제1).

이사회안 제4b조 제2항에 따르면, 고위험 AI 시스템으로 사용될 수 있는 GPAI 시스템 제공자는 이 시행령의 적용일로부터 일련의 특정 의무를 준수해야 한다(이사회안 제16aa, 16e, 16f, 16g, 16i, 25, 48, 61). 또한 기술 문서는 GPAI 시스템이 시장에 출시되거나 서비스를 개시한 후 10년이 되는 날까지 국내 관할 기관이 접근할 수 있도록 보관해야 한다(이사회안 제4b조 제4).

이사회안 제4b조 제5항에 따르면 GPAI 시스템 제공자는 해당 시스템을 고위험 AI 시스템으로 또는 고위험 AI 시스템의 구성 요소로 사용하는 다른 제공자와 협력하여 후자가 AI 법에 따른 의무를 준수할 수 있도록 해야 한다. GPAI 시스템 제공자는 사용 설명서 또는 GPAI 시스템과 함께 제공되는 정보에서 모든 고위험 사용을 명시적으로 배제하는 경우에만 이러한 의무를 면제할 수 있다(이사회안 제4c조 제1). 그러나 제공자가 시스템이 오용될 수 있다고 믿을 만한 합리적인 근거가 있는 경우 이는 불가능하다(이사회안 제4c조 제2).

이사회는 중대한 기본권 침해 또는 기타 중대한 위험을 초래할 가능성이 없는 AI 시스템은 고위험 AI 시스템에서 배제할 것을 제안했다(이사회안 제6조 제3). 이는 시스템의 산출물이 관련 조치 또는 결정과 관련하여 순전히 보조적인 것이어서 건강, 안전 또는 기본권에 대한 중대한 위험을 초래할 가능성이 없는 경우에 해당한다.

 

(4) 생성형 AI와 저작권 관련 내용

 

ChatGPT가 처음 발표되었을 때, 이사회는 3자협상에 대한 입장을 마무리하는 과정에 있었다. 따라서 이사회는 이미 생성형 AI의 존재를 인식하고 있었다. 그리하여 이사회는 생성형 AI에 대한 규정을 제안하기 위해 범용 AI 시스템이라는 용어를 선택했다. 범용 AI 시스템은 다양한 맥락에서 사용될 수 있으며 다양한 다른 AI 시스템에 통합될 수 있다(이사회안 제31). 이러한 시스템은 고위험 AI 시스템 또는 고위험 시스템의 구성 요소로 사용될 수 있는 경우 고위험 AI 시스템에 해당한다(위원회안 제4b조 제1).

위원회는 또한 이러한 유형의 AI와 특정한 고위험 상황에 맞게 특별히 설계된 AI 사이에 차이가 있다는 점을 인식하고 있었다. 따라서 위원회가 시행령을 통해서 고위험 AI 제공자에게 적용되는 의무 중 어떤 의무가 생성형 AI 제공자에게도 적용되는지 결정하도록 예상했다(이사회안 제4b조 제1). 이사회는 생성형 AI를 인식하고 이에 대한 대응을 시도하였으나, 위원회와 마찬가지로 생성형 AI가 야기하는 저작권 문제에 대해서는 아무런 언급을 하지 않았다.

 

 

4. EU 의회의 인공지능법안 수정안

유럽의회는 2023614일 본회의 표결을 통해서 위원회안에 대한 수정안을 의결했다(이하 의회안’). 의회안은 위원회안과 상당한 차이가 있다.

 

(1) 인공지능법안의 목적

 

인공지능법안은 인간 중심적이고 신뢰할 수 있는 인공지능의 활용을 촉진하고 혁신을 지원하는 동시에 유럽연합에서 인공지능 시스템의 유해한 영향으로부터 건강, 안전, 기본권, 민주주의 및 법치, 환경을 높은 수준으로 보호하는 것을 목적으로 한다(의회안 제1조 제1).

 

(2) 인공지능 시스템의 개념 및 유형

 

1) 인공지능 시스템

 

이사회와 마찬가지로 EU 의회도 위원회안 부록 I을 삭제하고 제3조 제1항에 인공지능 시스템의 개념을 정의할 것을 제안했다. 이에 따르면 인공지능 시스템’(AI system)이란 다양한 수준의 자율성을 가지고 작동하도록 설계되고, 명시적 또는 암묵적 목표에 따라 물리적 또는 가상 환경에 영향을 미치는 예측, 추천 또는 결정과 같은 산출물을 생성할 수 있는 기계 기반 시스템을 의미한다(의회안 제3조 제1). 기계 기반 시스템이 다양한 수준의 자율성을 가지고 작동할 수 있어야 한다고 명시함으로써 의회안은 AI 시스템과 단순한 소프트웨어 시스템을 구별하고 있다(의회안 전문 리사이틀 6).

 

2) 범용 AI 시스템

 

범용 AI 시스템(general purpose AI system)이란 광범위한 애플리케이션에서 사용할 수 있고 이에 맞게 조정할 수 있도록 의도적으로 특별히 설계되지 않은 AI 시스템을 의미한다(의회안 제3조 제11d).

 

3) 생성형 AI 시스템

 

생성형 AI 시스템(generative AI)이란 다양한 수준의 자율성을 가지고 복잡한 텍스트, 이미지, 오디오 또는 비디오와 같은 콘텐츠를 생성하기 위해 특별히 고안된 AI 시스템을 말한다(의회안 제28b조 제4). 저작물의 유형을 예시한 것은 장래에 모든 종류의 창작 분야를 포괄할 수 있는 생성형 AI의 생성 능력의 증대에 대응하기 위한 것이다.

 

4) 기반 모델

 

의회는 기반 모델(Foundation Model)이라는 새로운 개념을 도입하였다. 의회안에 따르면 기반 모델이란 광범위한 데이터베이스를 기반으로 학습되고, 일반적인 출력을 위해 설계되었으며, 다양한 작업에 적용될 수 있는 AI 시스템 모델을 말한다”(3조 제1c). 기반 모델은 AI 시스템과 구분된다(의회안 제4a조 제1).

기반 모델의 개념은 미국 스탠포드 대학의 연구진들이 처음 제안하였다. 스탠포드 대학의 인간중심 AI (HAI) 연구소는 GPT-3와 같은 초거대 인공신경망이 기존의 딥러닝과는 달리 명시적으로 훈련되지 않은 문제를 광범위하게 해결할 수 있는 수행 능력에 차이가 있음을 인식하고 이와 같은 초거대 사전학습 모델을 기반모델이라 명명하였다. 의회안의 기반 모델 개념은 이 연구진들의 개념을 기초로 하고 있다.

기반 모델은 출력의 범용성과 다양성을 최적화하기 위해 설계된 알고리즘을 기반으로 AI 모델을 개발한다. 이러한 모델은 특별히 개발 및 학습되지 않은 작업을 포함하여 수많은 후속 작업을 수행하기 위해 광범위한 데이터 소스와 대량의 데이터를 학습하는 경우가 많다. 기반 모델은 단일 모드 또는 다중 모드일 수 있으며 지도 학습 또는 강화 학습과 같은 다양한 방법을 사용하여 학습할 수 있다. 기반 모델은 특정한 목적을 가진 AI 시스템 또는 범용 AI 시스템으로 구현될 수 있으며, 이는 각 기반 모델이 수많은 후속 AI 시스템 또는 범용 AI 시스템에서 재사용될 수 있다는 것을 의미한다. 이러한 모델은 많은 후속 애플리케이션과 시스템에서 점점 더 중요해지고 있다(의회안 전문 리사이틀 (60e)).

기반 모델은 제3조 제1항의 AI 시스템의 기반을 형성한다. 기반 모델이 “AI 시스템에서 사용되거나”(28b조 제4) AI 시스템이 그러한 AI 모델을 사용할 수 있다”(56bq). 기반 모델의 대표적인 사례로 GPT-4를 들 수 있다. ChatGPT와 같은 생성형 AI 애플리케이션뿐만 아니라 비생성형 AI 시스템도 이러한 모델을 기반으로 한다. 기반 모델도 데이터로 훈련된다(Pre training). 이 모델을 기반으로 하는 생성형 AI 시스템도 데이터로 학습된다(Fine tuning).

 

(3) 금지 및 고위험 AI 시스템의 확대

 

1) 금지 AI 시스템의 확대

 

위원회안 제5조는 시민의 안전, 생활기반 및 권리에 명백한 위협이 되는 특정한 AI 시스템을 금지하고 있었다. 의회안은 금지된 AI 시스템 목록을 대폭 확대했다. 예를 들어 위원회안에 따르면 공공장소에서 법집행을 위한 실시간 원격 생체 식별 시스템(: 자동 안면 인식 기능을 갖춘 비디오 감시)의 사용은 원칙적으로 금지되었지만, 경찰 및 보안 당국이 범죄 피해자를 찾거나 테러 공격을 예방하거나 중대한 범죄를 기소하기 위해 사용하는 경우 등 일부 예외가 인정되었다. 하지만 의회안은 공공장소에서의 실시간 원격 생체 식별 시스템은 예외 없이 모두 금지한다(의회안 제5조 제1d). 이러한 금지는 공개적으로 접근 가능한 공간의 녹화 이미지를 분석하여 이후에 원격 생체 인식 식별을 위한 AI 시스템에도 동일하게 적용된다(5조 제1dd).

또한 의회안에 따르면 제5조에 언급된 금지사항을 준수하지 않는 경우 최대 4천만 유로 또는 기업의 경우 직전 회계연도 전 세계 총매출액의 최대 7% 중 더 높은 금액의 과징금을 부과하도록 규정하고 있다(의회안 제71조 제3).

 

2) 고위험 AI 시스템의 요건 추가

 

EU 의회는, 이사회의 일반접근법과 마찬가지로, AI 시스템을 고위험으로 분류하기 위한 추가 요건을 포함할 것을 제안했다. 의회안 제6조 제2항에서 EU 의회는 부록 에 나열된 AI 시스템은 자연인의 건강, 안전 또는 기본권에 해를 끼칠 중대한 위험을 초래하는 경우에만 고위험 AI 시스템으로 간주할 것을 추가했다. 여기서 중대한 위험’(significant risk)이란 위험의 심각성, 강도, 발생 가능성, 영향의 지속 기간 그리고 개인, 다수의 사람 또는 특정 집단에 영향을 미칠 수 있는 능력을 종합적으로 고려한 결과 중대한 위험을 의미한다(의회안 제3조 제1b). 또한 의회는 집행위원회에 고위험 AI 시스템의 사용 사례를 부록 에서 삭제할 수 있는 권한을 부여할 것을 제안했다(의회안 제7조 제1a). 의회는 또한 부록 의 목록을 확장했다. 예를 들어 소셜 미디어 플랫폼에서 플랫폼 사용자가 이용할 수 있는 사용자 생성 콘텐츠를 추천하는 데 사용되는 AI 시스템도 포함시켰다(부록 18 (ab)).

 

(4) 고위험 AI 시스템 운영자 및 기반 모델 제공자의 의무

 

1) 고위험 AI 시스템 운영자의 의무 강화

 

의회안은 고위험 AI 시스템 운영자의 책임과 의무를 더욱 강화하고 있다. 예를 들어 고위험 AI 시스템은 시스템과 함께 제공된 사용 지침에 따라서만 사용해야 하고(의회안 제29조 제1), 고위험 AI 시스템의 사용 목적과 관련하여 입력 데이터의 관련성을 보장해야 하며(의회안 제29조 제3), 고위험 AI의 작동을 모니터링해야 한다(의회안 제29조 제4). 의회안은 또한 사업자가 최종 사용자에게 고위험 AI 시스템에 노출되어 있으며 개별 의사 결정에 대한 설명을 받을 권리가 있음을 알려야 한다고 규정하고 있다(의회안 29조 제6a).

 

2) 기반 모델 제공자의 특별 의무

 

기반 모델은 가치 창조의 출발점을 형성하고 광범위한 AI 애플리케이션의 토대를 마련하기 때문에 의회는 이러한 모델 제공자에게 특별한 의무를 부과하려고 한다. 예를 들어 기반 모델 제공자는 건강, 안전, 기본권, 환경, 민주주의 및 법치에 대한 예측 가능한 위험을 식별, 최소화 및 완화하기 위한 위험 관리 시스템을 구축해야 한다(의회안 제28b 조 제2(a)). 또한 기반 모델 제공자는 데이터 거버넌스 조치를 취하고(28b조 제2(b)), 에너지 표준을 이행하고 에너지 소비를 모니터링하며(의회안 제28b조 제2(d)), 문서화 및 투명성 의무를 이행해야 한다(의회안 제28b조 제2(c), (e)-(f)). 이를 준수하지 않는 경우 과징금이 부과될 수 있다. 제공자가 요건을 준수하지 않을 경우, 기업일 경우 직전 회계연도 전 세계 연간 총매출액의 최대 2%까지 과징금이 부과될 수 있다(의회안 제71조 제4).

 

(5) 생성형 AI와 저작권 관련 내용

 

기반 모델이 생성형 AI 시스템에 사용되는 경우, 기반 모델 제공자와 이를 기반으로 하는 생성형 AI 시스템 제공자는 투명성 의무를 추가로 부담하게 된다. 의회안은 이러한 투명성 의무와 관련하여 세 가지 추가의무를 제안하고 있다(의회안 제28b(4)).

첫째, 제공자는 일반적으로 AI 시스템과 상호작용하는 개인에게 콘텐츠가 AI를 사용하여 생성되었다는 사실을 적시에 명확하고 이해하기 쉬운 방식으로 알려야 한다(의회안 제52조 제1과 관련한 제28b(4) (a)). 개인은 AI 시스템이 제공하는 콘텐츠가 어떻게 생성되었는지, 그리고 콘텐츠에 AI 특유의 결함이 있을 수 있다는 사실을 알아야 하기 때문이다.

둘째, 제공자는 기본적으로 생성된 콘텐츠가 유럽연합법을 위반하지 않도록 적절한 보호조치를 제공해야 한다(의회안 제28b (4) (b)).

셋째, 제공자는 저작권에 관한 유럽연합 또는 회원국의 법을 침해하지 않고 저작권법에 따라 보호되는 학습 데이터의 사용에 대한 요약을 충분히 상세하게 문서화하여 공중에게 제공해야 한다(의회안 제28b조 제4(c)).

의회가 제시한 세 번째 투명성 의무는 기반 모델 제공자에게 서비스를 시장에 출시하기 전에 저작권에 관한 유럽연합 및 회원국 국내법에 따라 모델을 교육, 설계 및 개발할 의무를 부과하고 있다. 제공자는 이를 위해 저작권법에 따라 보호되는 훈련 데이터의 사용에 대한 요약본을 자세하게 작성하여 공개해야 한다.

의회안은 위원회안 및 이사회안과 달리 기반 모델과 생성형 AI의 개념을 규범적으로 정의하고 이들 시스템이 학습한 콘텐츠가 저작권법으로 보호되는 저작물이거나 저작인접물인 경우 이에 대한 내용을 요약하여 이용자에게 공개할 의무를 부과하고 있다. 그러나 의회안은 이 의무의 내용이 무엇인지에 대해서는 언급하지 않았다.

 

5. 범용 인공지능 모델 및 범용 인공지능 시스템에 대한 합의안

지난 해 말 OpenAI의 강력한 GPT-4 모델에 기반한 ChatGPT가 등장하면서 EU 의회는 인공지능법안에서 이러한 유형의 AI를 가장 잘 규제할 수 있는 방법을 고민하게 되었다. 그리하여 EU의회는 이러한 모델을 포함하는 범용 AI 모델에 대해서 엄격하게 규제해야 한다는 전제에서 포괄적인 범용 AI 모델 규제안을 제안하였다. 그러나 이사회의 주도 국가인 독일, 프랑스, 이탈리아 등이 이에 반대하면서 삼자협상이 중단되었다. 이러한 엄격한 규제는 EUAI 기업에 부담을 주게 되어 미국 및 중국과의 경쟁에서 뒤처진다는 것이 그 이유였다. EU 인공지능법안은 인공지능 분야에서 세계 표준을 주도하려는 EU의 야심찬 계획이었다. 이러한 야심찬 계획이 수포로 돌아갈 상황이었다. 하지만 126일부터 재개된 3일간의 마라톤 협상에서 위원회, 이사회, 의회는 마침내 잠정 합의안을 도출하였다. 이사회가 반대했던 범용 AI 모델 규제에 대하여 적절한 합의점을 찾게 되어 인공지능법안에 포함된 것이다.

 

(1) 범용 AI 모델 및 범용 AI 시스템의 개념

 

잠정 합의안에는 다양한 개념들을 추가하고 있다. 범용 AI 모델(general-purpose AI model)이란 대규모 자기 지도(self-supervision)를 사용하여 대량의 데이터로 훈련된 경우를 포함하여 상당한 일반성을 나타내며 모델이 시장에 출시되는 방식과 관계없이 광범위한 고유 작업을 유능하게 수행할 수 있고 다양한 다운스트림 시스템 또는 애플리케이션에 통합될 수 있는 AI 모델을 의미한다. 잠정 합의안은 리사이틀에서 모델의 일반성과 관련하여 다음과 같이 제안하고 있다. 한 모델의 일반성은 다른 기준들 중에서 매개변수의 수에 의해서도 결정될 수 있지만, 최소 10억 개 이상의 매개변수가 있고 모델에 대한 대규모 자기 지도를 사용하여 대량의 데이터로 훈련된 모델들은 상당한 일반성을 보여줄 수 있으며 다양한 고유 작업을 유능하게 수행할 수 있다고 한다. 기술과 발전의 빠른 속도를 고려할 때, 범용 모델 정의의 기술적 요소를 업데이트할 수 있는 권한을 위원회에 부여하는 것이 적합하다고 한다.

이러한 범용 AI 모델에는 대규모 생성형 AI 모델이 포함된다. 즉 대규모 생성형 AI 모델은 다양한 콘텐츠(예를 들어 텍스트, 오디오, 이미지 또는 비디오 형식)를 유연하게 생성할 수 있다는 점에서 범용 AI 모델의 전형적인 예에 속한다고 한다.

또한 범용 AI 모델에서 고영향력’(high-impact capabilities)이란 개념을 도입하고 있다. 이것은 가장 진보된 범용 AI 모델에 기록된 능력과 일치하거나 이를 능가하는 능력을 의미한다고 한다.

‘EU 차원의 체계적 위험’(systemic risk at Union level)이란 개념도 도입하고 있다. 체계적 위험이란 범용 AI 모델의 고영향력에 특정되어 있고, 그 도달 범위로 인해 역내 시장에 중대한 영향을 미치며, 공중 보건, 안전, 공공 안보, 기본권 또는 사회 전체에 실제로 또는 합리적으로 예측 가능한 부정적인 영향을 미치고, 가치 사슬 전반에 대규모로 전파될 수 있는 위험으로 정의하고 있다.

범용 AI 모델은 이러한 체계적 위험을 안고 있다고 한다. 잠정 합의안은 체계적 위험의 예로서 다음을 들고 있다. 첫째, 중대한 사고, 중요 부문의 중단, 공중 보건 및 안전에 대한 심각한 결과와 관련하여 실제 또는 합리적으로 예측 가능한 부정적인 영향, 둘째, 민주적 절차, 공공 및 경제 안보에 대한 실제 또는 합리적으로 예측 가능한 부정적인 영향을, 셋째, 불법, 허위, 차별적 또는 기타 유해한 콘텐츠의 유포이다. 이것은 예시이기 때문에 체계적 위험의 유형은 늘어날 수 있다.

 

잠정 합의안은 범용 AI 모델 외에 범용 AI 시스템’(general-purpose AI system)이란 개념도 도입하고 있다. 이는 범용 AI 모델에 기반한 AI 시스템으로 직접 사용하거나 다른 AI 시스템에 통합하는 등 다양한 용도로 사용할 수 있는 성능을 갖춘 시스템을 의미한다고 한다. 이와 더불어 범용 AI 모델을 통합하는 범용 AI 시스템을 포함한 모든 AI 시스템 제공자를 의미하는 ‘AI 시스템의 다운스트림 제공자의 개념도 도입하고 있다.

(2) 저작권과 관련한 범용 AI 모델 제공자의 의무

 

잠정 합의안은 범용 AI 모델 제공자의 다양한 의무를 규정하고 있다. 그중에서 저작권과 관련한 의무가 포함되어 있다.

첫째, 범용 AI 모델 제공자는 모델의 훈련 및 테스트 과정과 평가 결과를 포함한 모델의 기술적 문서를 작성하고 최신 상태로 유지해야 하며, 요청이 있는 경우 AI 사무국 및 회원국의 관할 관청에 제공할 목적으로 최소한 부속서에 명시된 요소를 포함해야 한다.

둘째, 범용 AI 모델 제공자는 정보와 문서를 작성하여 최신 상태로 유지하고 범용 인공지능 모델을 인공지능 시스템에 통합하려는 인공지능 시스템 제공자에게 이를 제공해야 한다. 유럽연합 및 국내법에 따라 지식재산권, 영업비밀을 존중하고 침해하지 않는 범위 내에서 정보 및 문서를 작성해야 한다.

셋째, 범용 AI 모델 제공자는 유럽연합 저작권법을 준수하는 정책을 마련하고, 특히 해당되는 경우 기술의 상태에 따라 DSM 지침((EU) 2019/790) 4조 제3항에 명시된 권리 유보 사항을 확인하고 준수해야 한다.

넷째, 범용 AI 모델 제공자는 인공지능 사무국에서 제공하는 템플릿(견본)에 따라 범용 AI 모델의 훈련에 사용된 콘텐츠에 대한 충분히 상세한 요약을 작성하여 일반공중에게 제공해야 한다.

이러한 의무 중에서 셋째와 넷째가 저작권 보호와 직접 관련된다. 셋째 의무는 DSM 지침 제4조의 일반적 목적의 TDM과 권리보유자의 TDM을 거부할 수 있는 Opt-out 권리에 관한 것이다. 이러한 의무의 도입 이유에 대해서 리사이틀에서 다음과 같이 설명하고 있다.

텍스트, 이미지 및 기타 콘텐츠를 생성할 수 있는 범용 모델은 고유한 혁신 기회를 제공하지만, 아티스트, 작가 및 기타 크리에이터와 그들의 창작 콘텐츠가 생성, 배포, 사용 및 소비되는 방식에 대한 도전 과제도 제공한다. 이러한 모델을 개발하고 훈련하려면 방대한 양의 텍스트, 이미지, 동영상 및 기타 데이터에 대한 접근이 필요하다. 이러한 콘텐츠의 검색 및 분석을 위해 TDM 기법이 광범위하게 사용될 수 있으나, 이러한 콘텐츠는 저작권 및 저작인접권에 의해 보호될 수 있다. 저작권으로 보호되는 콘텐츠를 사용하려면 관련 저작권의 예외가 적용되지 않는 한, 해당 권리자의 허락이 필요하다. DSM 지침은 특정 조건 하에서 TDM 목적으로 저작물 또는 기타 보호 대상의 복제 및 추출을 허용하는 예외를 도입했다. 이 규정에 따라 권리자는 과학적 연구 목적이 아닌 한 TDM을 방지하기 위해 자신의 저작물 또는 기타 보호 대상에 대한 권리를 유보할 수 있다. 따라서 거부할 권리(the rights to opt out)가 적절한 방식으로 명시적으로 유보 되어있는 경우, 범용 AI 모델 제공자가 해당 저작물에 대해 TDM을 수행하려면 권리보유자의 허락을 받아야 한다.

또한 범용 AI 모델을 EU 시장에 출시하거나 EU에서 서비스하는 제공자는 본 규칙의 관련 의무를 준수해야 한다. 이를 위해 범용 AI 모델 제공자는 저작권 및 저작인접권에 관한 유럽연합법을 준수하고, 특히 DSM 4조 제3항에 따라 권리자가 명시한 권리 유보를 확인하고 준수하는 정책을 마련해야 한다. 범용 AI 모델을 EU 시장에 출시하는 모든 제공자는 이러한 기반 모델의 훈련을 뒷받침하는 저작권 관련 행위가 발생하는 관할권에 관계없이 이 의무를 준수해야 한다. 이는 범용 AI 모델 제공자 간의 공정한 경쟁을 보장하기 위한 것으로, 어떤 제공자도 유럽연합에서 제공되는 것보다 낮은 저작권 기준을 적용하여 EU 시장에서 경쟁 우위를 점할 수 없어야 하기 때문이다.

넷째 의무는 AI 학습에 사용된 콘텐츠를 충분히 상세하게 요약한 정보를 작성하여 공중에게 제공하는 것이다. 이것은 의회가 제안한 의무이다. 저작권법에 의해 보호되는 텍스트 및 데이터를 포함하여 범용 AI 모델의 사전-훈련 및 훈련에 사용되는 데이터에 대한 투명성을 높이기 위해, 해당 모델의 제공자는 범용 모델을 훈련하는데 사용한 콘텐츠에 대한 충분히 상세한 요약을 작성하여 공개하는 것이 적절하다. 의회안은 충분히 상세한 요약이 무엇인지 분명하지 않았다. 협상안에서는 이 요약을 구체적으로 설명하고 있다. 즉 이 요약은 기술적으로 상세하기보다는 대규모 비공개 또는 공개 데이터베이스나 데이터 아카이브와 같이 모델 훈련에 사용된 주요 데이터 컬렉션 또는 세트를 목록화하고, 사용된 다른 데이터 소스를 서술식으로 설명하는 등 그 범위를 포괄적으로 작성하면 된다고 한다. AI 사무소가 요약에 대한 템플릿을 제공하도록 요청하고 있다. 이는 간단하고 효과적이어야 하며 제공자가 필요한 요약을 서술식으로 제공할 수 있어야 한다.

 

잠정 합의에는 의회가 제안안 상세한 요약 정보의 제공이 포함되었다. 이러한 상세한 요약 정보의 제공은 TDM의 사용유보조항과 관련이 있다. 의회안은 이 점을 명확하게 언급하지 않았지만, 잠정 합의안에서 두가지 의무를 함께 규정하여 이들의 연관관계를 이해할 수 있게 되었다.

 

6. 인공지능법안과 저작권법의 관계

(1) AI 학습데이터 공개의무와 TDM의 관계

 

20236EU 의회가 집행위원회의 인공지능법안에 대한 수정안을 의결했을 때 이미 수백만명의 사람들이 ChatGPT를 사용하고 있었다. 그동안 학계 및 사회에서 생성형 AI의 기회와 위험에 대한 열띤 논쟁이 있었다. 이러한 배경에서 EU 의회는 저작권으로 보호되는 콘텐츠를 생성형 AI 학습에 이용하는 내용을 인공지능법안에 규정할 필요가 있었다. 이것이 앞서 언급한 인공지능 학습 데이터의 요약 정보 공개 의무조항이다(의회안 제28b조 제4c). 의회안은 이 의무의 내용이 무엇인지 언급하지 않았다.

하지만 잠정 합의안이 의회가 제안안 상세한 요약 정보의 제공과 함께 TDM의 사용유보조항도 도입함으로써 두가지 의무의 연관관계를 이해할 수 있게 되었다.

권리자는 자신의 저작물이 AI의 학습용 데이터로 사용되었는지 쉽게 파악할 수 있어야 하며, 이를 통해 추가 사용에 대한 유보를 선언할 수 있어야 한다. 이러한 점에서 이 조항은 DSM 지침 제4조의 텍스트 및 데이터 마이닝의 예외 및 제한 사유를 보완하기 위한 것임을 알 수 있다.

 

(2) DSM 지침의 텍스트 및 데이터 마이닝(TDM)

 

DSM 지침은 저작권의 예외 및 제한 사유로서 TDM을 규정하고 있다. TDM은 디지털 형식의 텍스트와 데이터를 자동으로 분석하는 기법을 말하며, 패턴, 트렌드 및 상관관계 등에 대한 정보를 생성하는데 사용할 수 있지만 이에 국한되지 않는다(DSM 지침 제2조 제2). 이는 권리보유자의 허락과 상관없이 인공지능의 학습에 저작권법으로 보호되는 저작물이나 저작인접물 등을 사용할 수 있게 한 것이다. DSM 지침은 일반적인 TDM(지침 제4)과 학술연구목적의 특별한 TDM(3)을 두고 있다. DSM 지침 제4조의 일반적인 TDM에 따르면 합법적으로 접근할 수 있는 저작물이나 기타 보호대상을 텍스트 및 데이터 마이닝 목적으로 복제하거나 추출할 수 있다(4조 제1). 텍스트 및 데이터 마이닝 목적으로 수행된 복제본이나 추출물은 필요한 기간 보관할 수 있다(4조 제2).

그러나 TDM이 아무런 제한없이 허용되는 것은 아니다. 권리보유자가 자신의 저작물이나 보호대상에 대한 TDM을 원하지 않는다면 필요한 조치를 할 수 있다. 즉 권리보유자는 온라인에 게시된 콘텐츠의 경우 기계가 판독 가능한 수단 등 적절한 방식으로 자신의 저작물이나 기타 보호대상을 사용할 권리를 명시적으로 유보할 수 있다. 기계가 판독 가능한 수단으로는 “robots.txt” 파일이 대표적이다. TDM에 대한 권리보유자의 유보는 옵트아웃(Opt-out) 권리이다. 이러한 권리가 보다 효과적으로 행사되기 위해서 권리보유자는 자신의 어떤 저작물이 TDM 목적으로 복제되어 AI의 학습에 이용되었는지 알아야 한다. 따라서 AI 학습 데이터의 요약 공개의무는 DSM 지침 제4조 제3항이 권리보유자에게 부여한 옵트 아웃 권리를 보완한 것이라고 판단된다. AI 학습 목적으로 채굴 및 추출된 모든 저작물이 포함된 보고서가 없는 경우, 권리자가 자신의 저작물이 소프트웨어에 주입되었다는 사실을 발견하는 것은 거의 불가능하기 때문이다.

 

(3) AI 학습데이터 공개의무와 옵트 아웃 권리의 문제점 분석과 전망

의회안은 저작물의 새로운 이용형태와 관련하여 생성형 AI 서비스 제공자와 저작권 보유자 사이의 협력을 보장한 것으로 보인다. 하지만 사용된 저작물에 대한 투명성 의무의 이행에 대해서 많은 비판이 제기되고 있다. 오래전부터 이러한 투명성 의무의 이행은 실현되기 어려울 것이라고 주장되었다. 왜냐하면 저작권에 대한 관할권이 통일되어 있지 않고, 의무 등록 절차가 존재하지 않을 뿐 아니라, 일반적으로 메타데이터에 대한 권리자가 명확하지 않기 때문이라고 한다. 또한 알고리즘은 매우 다양한 소스로부터 학습될 수 있어서 어떤 소스가 사용되었는지 정확하게 파악하는 것은 쉽지 않다고 한다.

일반적으로 AI 학습에는 엄청난 양의 데이터가 필요하다. 텍스트 및 데이터 마이닝의 제한 사유로 저작물을 기본적으로 이용할 수 있지만, 권리보유자가 기술적 수단으로 권리를 유보한 경우 유보된 저작물을 사용하기 위해서 이에 대한 이용허락을 받아야 한다. 만일 권리보유자가 옵트 아웃 권리를 대규모로 행사한다면, AI 제공자는 라이선스를 확보하기 위해 높은 거래 비용을 지불해야 할 것이다. 결국 대규모 옵트아웃 권리 행사로 인해 알고리즘 학습에 사용할 수 있는 데이터 세트가 급격히 줄어들 수 있어서 AI가 생성한 산출물의 품질에 영향을 미치게 된다.

디지털 환경에서 창의성의 미래에 대한 중요한 문제를 이와 같이 시장 참여자들의 자율 규제에 맡기는 것은 바람직하지 않다. AI 제공자에게 행정적, 재정적으로 과도한 부담을 주게되면 입력 데이터 세트가 제한되어 AI 시스템 발전에 영향을 미칠 수 있으므로 일정한 균형이 필요하다. 창작 활동 지원을 위한 생성형 AI 서비스의 가치를 과소평가해서는 안 된다. 또한 생성형 AI는 학술연구 목적으로도 사용될 수 있으며, 학문연구의 자유는 저작권보다 특권적 대우가 요구되는 만큼 AI 학습 목적에 따라 차별화된 접근이 필요할 수 있다. AI 시스템이 인간의 창의성을 대체하는 것이 아니라, 인간의 창의성을 돕는 도구로 될 수 있는 법적 틀을 마련하는 것이 중요하다. 이러한 배경에서 생성형 인공지능에 대한 법정보상제도가 도입되어야 한다는 견해가 상당한 지지를 받고 있다. 유럽입법자는 TDM으로 인하여 권리보유자의 피해가 크지 않다고 보았으므로, DSM 지침에서 일반적인 TDM이나 학술연구목적의 TDM 모두 법정보상제도를 허용하지 않았다. 다만 권리보유자에게 유보조항을 통한 계약상 보상만 인정하였다. 그러나 학술연구목적의 TDM에는 이러한 약정보상도 허용되지 않는다(DSM 지침 제7조 제1).

 

5. 맺음말

20214EU 집행위원회가 인공지능법안의 제정을 제안함에 따라 이사회는 2022126, 의회는 2023614일 이에 대한 수정안을 각각 제안하였다. 그 후 삼자협상이 진행되어 지난 129일 잠정 합의에 성공하였다.

집행위원회안, 이사회안, 의회안 중 의회안만이 저작권 보호와 관련한 내용을 담고 있다. 의회는 AI 학습데이터의 사용에 대한 요약을 충분히 상세하게 문서화하여 공개할 의무를 제안했다. 삼자협상안은 이러한 의회 제안을 수용하고 있다. 삼자협상안의 전문은 아직 공개되지 않았지만, 언론에 공개된 잠정 협상안의 일부 내용에 따르면 저작권 보호와 관련하여 범용 인공지능 모델 제공자에게 두 가지 의무를 부여하고 있다. 하나는 EU DSM 지침의 일반적 목적의 TDM 조항(지침 제4)에 규정된 유보조항을 확인하고 준수할 의무와 의회가 제안한 인공지능 학습에 사용된 콘텐츠에 대한 충분히 상세한 요약을 작성하여 공중에게 제공할 의무이다. AI 학습데이터의 요약본 공개의무는 DSM 지침의 제한사유인 텍스트 및 데이터 마이닝의 유보조항을 보완하기 위한 것이다.

하지만 권리보유자가 TDM을 제한하기 위하여 유보 권한을 과도하게 행사할 경우 AI 제공자는 AI 학습 데이터의 양이 엄청나기 때문에 이에 대한 라이선스를 확보하기 위해서 엄청난 거래 비용을 지불해야 한다. 이러한 과도한 부담은 특히 유럽 차원에서 AI 시스템의 학습이 어렵거나 품질이 낮은 정보만 학습에 이용될 수 있다. 결국 정보시스템 분야에서 사용되는 쓰레기가 들어가면, 쓰레기가 나온다”(Garbage in, Garbage out, GIGO)는 원칙이 실현될 수 있다.

의회안이 제시한 바와 같이 인공지능법안의 목적은 인공지능의 이용 촉진, 혁신 지원 그리고 인공지능이 야기할 위험으로부터 보호이다. 인공지능의 위험 보호에는 기본권이 포함되어 있다. 인공지능의 학습으로 저작권이 침해된다면 헌법상 재산권이 침해된다. 하지만 생성형 AI 서비스가 가지는 가치는 학술연구의 자유 등 다른 기본권과도 관련되어 있다. 따라서 AI 학습데이터 공개의무와 옵트아웃 권리가 야기하는 문제점은 기본권의 관점에서 접근해야 할 것이다.

이러한 접근은 EU와 달리 저작권의 예외 및 제한 조항으로서 TDM 조항이 없는 미국이나 우리나라에서 인공지능 학습이 공정조항에 의해서 정당화될 수 있는지에 대한 논의에 중요한 시사점을 제공한다.

 

 

참고문헌

 

 

이 글에 인용된 모든 인터넷 자료는 2023.12.18. 확인함.

 

신성필, 초거대 AI의 기반모델(Foundation Model) 개념 및 표준화 동향, 정보와 통신, 2023.6, 16-21.

Andersen et al v. Stability AL Ltf. et al, 3:23-cv-00201-WHO (N.D. Cal. Oct. 30, 2023) (https://casetext.com/case/andersen-v-stability-ai-ltd).

Block/Jung/Wendt, Requirements for “Legal Tech AI Systems”, CRi 2023, 97-105.

Bommasani, Liang et al., On the Opportunities and Risks of Foundation Models, 2022, http://arxiv.org/abs/2108.07258).

Geiger, Christophe/Iaia, Vincenzo The Forgotten Creator: Towards a Statutory Remuneration Right for Machine Learning of Generative AI, Computer Law & Security Review 2024 (Forthcoming), (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4594873).

de la Durantaye, Katharina, »Garbage in, garbage out«, Die Regulierung generativer KI durch Urheberrecht, ZUM 2023, 645-659.

Geiger / Jütte, Conceptualizing a 'Right to Research' and Its Implications for Copyright Law: An International and European Perspective, 7.2022, p.33(https://digitalcommons.wcl.american.edu/cgi/viewcontent.cgi?article=1079&context=research).

Hahn, Silke, Was darf KI? Stockfotograf und KI-Verein streiten um das Copyright, Heise online, 2023.5.5 (https://www.heise.de/-8984836).

Henderson, Li, Jurafsky, Hashimoto, Lemley, & Liang, Foundation Models and Fair Use, Stanford Law and Economics Olin Working Paper No. 584, 2023, 1-77.

João Pedro Quintais, Generative AI, Copyright and the AI Act,, May 9, 2023 (https://copyrightblog.kluweriplaw.com/2023/05/09/generative-ai-copyright-and-the-ai-act/).

Keller, Paul, A first look at the copyright relevant parts in the final AI Act compromise, , Kluwer Copyright Blog (https://copyrightblog.kluweriplaw.com/2023/12/11/a-first-look-at-the-copyright-relevant-parts-in-the-final-ai-act-compromise/)

Maamar, Niklas, Urheberrechtliche Fragen beim Einsatz von generativen KI-Systemen, ZUM 2023, 481-491.

 

EU 집행위원회안 : https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021PC0206

EU 이사회안 : https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf.

EU 의회안 : https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html

삼자합의안(일부) : https://www.openfuture.eu/wp-content/uploads/2023/12/231206GPAI_Compromise_proposalv4.pdf

  • 담당자 : 손휘용
  • 담당부서 : 국제통상협력팀
  • 전화번호 : 0557920089

본 페이지의 내용이나 사용 편의성에 대해 만족하십니까?

  • 만족도 총 5점 중 5점
  • 만족도 총 5점 중 4점
  • 만족도 총 5점 중 3점
  • 만족도 총 5점 중 2점
  • 만족도 총 5점 중 1점
평가하기