대메뉴 바로가기 본문 바로가기

한국저작권위원회

인기검색어
폰트, 음악, PPT, 일러스트
전체 메뉴

사이트맵

닫기

저작권동향

저작권동향 상세보기
제목 [이슈리포트] 2024-39-[호주] 저작권 관련 고위험 AI에 대한 규제 강화 방안 마련(김창화)
담당부서 국제통상협력팀 손휘용(0557920089) 등록일 2024-12-23
첨부문서

[이슈리포트] 2024-39-[호주] 저작권 관련 고위험 AI에 대한 규제 강화 방안 마련(김창화).pdf 미리보기

 

 

[호주] 저작권 관련 고위험 AI에 대한 규제 강화 방안 마련

상원 AI 특별위원회의 보고서와 정부의 제안서

 

한밭대학교 공공행정학과 교수

김창화

 

 

1. 서론

 

 

전 세계적으로 AI 규제에 대한 논의가 깊어지고 있는 가운데, 최근 호주 상원 AI 특별위원회는 호주에서 AI의 영향에 대해 조사하였으며, 8개월에 걸친 조사 끝에 AI 기반 생산에 따른 경제적 혜택부터 편견의 위험과 환경에 대한 영향까지 폭넓게 다룬 보고서를 발표하였다. 여기서, 특별위원회는 OpenAI, Meta, Google 등의 거대 기술 기업들을 날카롭게 비판하면서, 새로운 호주 AI 법에 따라 그들의 제품을 고위험(high risk)군으로 분류할 것을 요구하였다. 특히, 보고서는 기술 기업들에 의해 전례 없는 저작권 침해가 발생하고 있다고 주장하면서, AI 개발자들이 데이터 학습에 저작물을 사용할 때, 투명성을 확보하고 적절한 라이선스와 대가를 지급하도록 정부가 강제해야 한다고 권고하였다.

한편, 호주 정부는 안전하고 책임 있는 AI에 대한 논의 과정에서, 현재의 AI 규제 시스템이 적합하지 않고, 전 세계 정부들이 예방적 안전조치의 제작을 기반으로 새로운 규제 시스템을 도입하고 있음을 확인하였다. 이에, 호주 정부는 현대적이고 효과적인 규제 시스템이 필요함을 강조하면서, 지난 9호주에서 안전하고 책임 있는 AI: 고위험 AI에 대한 의무 안전조치 도입을 위한 제안서를 발표하였다. 제안서는 다른 나라들과 유사하게, 투명성 및 책임성을 포함한 조치에 중점을 둔 위험 기반 접근 방식을 취하고 있으며, 호주에서 고위험 AI를 개발하고 배포하는 사람들에게 구속력 있는 기준을 제공한다. 그 기준으로서, 제안서는 고위험 AI에 대한 10가지 안전조치를 제안하고 있으며, 이 중 안전조치 36은 특히, 저작권법과 관련성이 높다.

 

 

2. 주요 내용

 

 

1. AI 특별위원회 보고서

 

. AI의 도움을 받아 창작한 저작물에 대한 저작권 보호

 

현재 호주의 저작권 체계는 AI의 도움을 받아 창작한 저작물의 보호 범위를 명확하게 정하고 있지 않다. 호주 영상 창작자 협회(Screen Producers Australia)는 인간 저작자가 만든 것에만 저작권이 존재할 수 있어, 사람의 손길이 거의 닿지 않고 만들어진 것에는 저작자가 존재하지 않고, 저작권법의 보호를 받을 수 없는데, 저작권법은 저작권 보호를 받기 위해 필요한 인간의 저작 수준에 대해서는 침묵하고 있다고 하였다. 한편, BSA 소프트웨어 연합은 창의적 작품이나 예술적 작품의 품질을 높이기 위해 AI를 사용한 것을 이유로 저작권 보호를 하지 않는다면, 창작 산업 전반과 저작권 보호 시스템을 약화할 수 있다고 지적하였다. 저작권은 소프트웨어 코드를 포함해 창작물을 보호하는 데 중요한 역할을 한다. 단순히 창작 과정에 AI가 사용되었다는 이유만으로 저작권 보호를 받을 수 없는 것은 저작권법의 취지에 부합하지 않는다. 인간의 창의성에 영향을 받은 부분은 저작권법이 보호하여야 한다. 저작권 보호가 부족하면 혁신가들은 더 많이 보호하는 법률과 정책을 가진 나라를 찾게 될 수도 있다.

 

. AI 학습을 위한 저작물의 사용

 

저작권 관련 문제는 AI를 학습시키기 위해 저작물을 사용할 때 자주 발생한다. ChatGPT-4와 같은 생성형 AI 시스템을 구축하기 위해서는 대규모 언어 모델(LLM)에 텍스트나 이미지와 같은 방대한 양의 콘텐츠를 학습시켜야 한다. LLM 학습에 사용할 수 있는 콘텐츠는 책, 기사, 이미지, 대규모 데이터셋 등 다양하다. 스크래핑을 통해 저작물을 웹에서 직접 가져오는 경우도 있다. 저작권자들은 AI 회사들이 저작물을 무단 사용하고 있음을 인정했다고 주장하며, 저작물을 사용하지 않고서는 AI 모델을 학습하는 것이 사실 불가능하다고도 하였다. 반면, 구글의 정부·공공 정책 담당 이사는 구글이 승인이나 보상 없이 저작물을 사용하여 AI 제품을 학습시킨다는 사실은 인정하지만, 저작물을 AI 학습 데이터셋에서 제외하면 AI의 유용성이 크게 손상될 수 있다고 하였다. 예를 들어, 성소수자 인권과 같은 현대적 사건이나 사회·문화적 이슈와 관련된 데이터가 데이터셋에서 제외된다면, AI는 우리 사회의 크고 중요한 부분에 대한 편견이나 격차를 보일 수 있고, 무지의 상태가 될 수 있다. 결과물이 가장 유익한 사회적 용도로 사용되도록, 공개적으로 사용할 수 있는 대규모 데이터 코퍼스를 기반으로 AI는 학습되어야 한다.

호주 저작권 위원회(Australian Copyright Council, ACC)AI 모델 학습을 위한 저작물의 대규모 복제가 AI 개발자를 저작권 침해 책임에 노출시킨다고 지적하였다. 호주의 저작권 체계는 연구 또는 학습, 비평 또는 리뷰, 패러디 또는 풍자를 위해 저작물을 이용하고 그 이용이 모든 상황에서 공정한 경우 저작권 침해에 대한 공정이용 예외가 인정된다. 하지만 저작물을 스크래핑하는 행위는 이러한 예외에 해당할 가능성이 작다. 호주 법원들은 이용이 공정해야 한다는 요건과 관련하여, 저작물의 스크래핑이 라이선스나 보상 없이 저작권자의 저작물과 경쟁할 수도 있는 것을 생산하기 위해 이용되는 경우, 그 이용이 공정하다고 판단하지는 않을 것이다.

 

. 저작권자에 대한 보상

 

많은 크리에이티브 업계 관계자들은 아티스트와 크리에이티브 산업을 유지하기 위한 수입원으로서 저작권의 중요성을 지적하며, AI 학습에서의 저작권 무단 사용이 불러오는 재정적 문제들을 지적하였다. 호주 음반 산업 협회(ARIA)는 승인과 보상 없이 저작물을 AI 모델 학습에 사용하는 AI 개발자는 아티스트와 권리자에게 손해를 끼치고 있다고 하였다. 촬영감독들은 또한, 영화 산업을 구체적으로 언급하며, AI 학습을 위한 저작물 스크래핑은 아티스트들이 저작물 사용에 대해 공정한 보상을 받아야 하는 일반적인 요구를 회피하는 것이라고 하였다. 호주 출판협회(Australian Publishers Association)AI 학습을 위한 저작물 콘텐츠의 불법적인 수집이 AI와 그에 의존하는 창작 산업 모두의 지속가능성에 대한 존재적 위협이 될 수 있다고 하였다.

호주 촬영감독협회(Australian Cinematographers Society)AI 시스템이 학습한 저작물에 의존하여 생성한 결과물에 대해서도 저작권자가 보상받을 권리가 있어야 한다고 주장하였다. 성공적인 AI 결과물에는 성공적인 인간의 관여가 필요하므로, AI로 생성된 콘텐츠의 상업적 성공은 그 모델이 스크랩한 원본 저작물의 실질적인 성공과 직결된다. 따라서 자신의 저작물 사용에 동의한 원작자는 자신의 저작물이 생성형 AI 플랫폼에서 상업적으로 이용되는 결과물을 생산하기 위해 사용될 때, 지속적인 대가를 받을 권리가 있다. 이에, 영화감독은 AI 개발자가 저작물에 대해 AI 시스템을 학습시킬 때, 저작권자의 허가를 받도록 하는 옵트인 시스템과 해당 저작물에 기반하여 생성한 결과물에 대한 보수 및 로열티 지급 요건을 마련할 것을 촉구하였다. 호주 미디어 엔터테인먼트 예술협회(Media, Entertainment and Arts Alliance)AI에 의한 창작물의 지속적인 사용에 대해 동의와 보상이 필요하고, 거부할 수 있는 기능도 있어야 한다고 주장하였다. 더불어, 텍스트 및 데이터 마이닝(TDM) 예외는 엄격하게 제한되어야 하고, 기존의 예외 조항은 새로운 기술을 중심으로 개정되어야 하며, 특히 자가 학습 목적으로 사용되는 모든 콘텐츠에 대해서는 지식재산권자의 사전 동의를 받아야 한다고 하였다.

반면, AI의 저작물 사용이 저작권 침해에 해당한다거나 저작권 소유자에게 보상을 제공할 수 있는 근거가 되어서는 안 된다고 생각하는 이들도 있다. 호주 저작권 자문 그룹(Copyright Advisory Group)은 미국 저작권법이 저작물에 대한 AI의 학습을 허용하고 있다고 지적하면서, 호주의 저작권 체계가 호주의 AI 산업 발전에 걸림돌이 된다고 하였다. 미국과 달리 호주는 다른 나라보다 훨씬 엄격하고 덜 유연한 저작권 체계를 갖고 있어, AI 시스템을 개발, 운영 및 사용하는 데 상당한 장애를 초래하고 있다. 이러한 주장에 대해 ACC는 효율적이고 공정한 라이선스 계약을 포함하여 AI 개발자가 합법적으로 사용할 수 있는 방대한 범위의 콘텐츠가 존재한다는 점을 강조하며 이 주장을 거부하였다. 또한 영국이 최근 저작권법에 대한 AI 예외를 확대하라는 요청을 거부했고, 일본은 AI 예외 축소를 고려하고 있으며, 보다 허용적인 미국 제도 하에서도 AI 개발자를 상대로 24건 이상의 저작권 소송이 진행 중이라는 점을 지적하였다.

다수의 조사 참가자는 또한, 저작권자의 저작물이 AI 시스템 학습에 사용되었는지를 확인하거나 그러한 목적으로 사용되는 것에 이의를 제기하는 데 상당한 어려움을 겪고 있어, 저작권법이 AI의 저작물 사용을 효과적으로 규제하고 포착하기 위해서는 투명성이 중요한 요소라는 점을 지적하였다. MEAA는 창작자가 자신의 저작물이 학습 과정에서 사용되었는지 여부를 확인할 수 있도록 학습 데이터셋의 요약본을 공개적으로 제공하는 것이 중요하다고 하면서, 그렇지 않으면 사용 범위를 알 수 없다고 하였다.

 

. 생성형 AI 관련 저작권

 

저작권과 관련된 또 다른 문제는 생성형 AI의 산출물과 관련하여 발생한다. ACC는 생성형 AI가 기존 저작물의 상당 부분을 복제하는 경우, 프롬프트의 성격에 따라 사용자가 저작권 침해에 대한 책임이 있을 수 있다고 한다. 이 경우 생성형 AI 플랫폼의 소유자도 저작권 침해를 방지하는 조치를 할 권한이 있고 이를 위한 합리적인 예방 조치를 취하지 않은 때에는 저작권 침해에 대한 책임을 질 수 있다고 하였다. 또한 저작물이 실질적으로 복제된 AI 산출물을 배포할 때도 저작권 위반이 될 수 있다. MEAA는 생성형 AI의 출력물은 합성(synthetic)을 의미하며, 이는 스스로 학습한 자료와 매우 유사하지 않아야 하는데, 일부 사례들에서 AI가 저작물 그대로를 포함하는 출력물을 생성하고 있다고 하였다.

하지만 아마존 웹 서비스의 글로벌 AI/ML 공공 정책 책임자는 AI가 저작권이 있는 콘텐츠를 출력하지 못하도록 메모리 억제와 같은 보호 기능을 사용하여 AI 제품을 설계할 수 있다고 하였다. 아마존은 이를 뒷받침하기 위해 다른 개발자와 마찬가지로 제3자의 지식재산 청구로부터 자신의 생성형 AI 제품 사용자를 면책한다. 하지만 면책 약관의 세부 사항에는 타인의 지식재산권 침해나 부정 이용을 사용자가 알았거나 알 수 있었음에도 콘텐츠를 생성하는 경우와 같은 다양한 예외 조항이 포함되어 있어, 아마존이 어떤 보호 장치를 마련하더라도 침해 콘텐츠가 생성되는 것을 완전히 막을 수 없음을 보여준다. 호주 영상 창작자 협회는 현재 AI로 생성된 결과물의 저작권 침해 가능성을 고려하여 AI 사용을 자제하고 있다고 하였다.

 

. AI 딥페이크 또는 아티스트의 모방

 

AI 산출물의 저작권 침해 가능성은 AI가 아티스트의 딥페이크를 생성하거나 학습된 저작물의 스타일을 매우 유사하게 모방한 결과물을 생성할 수 있는 것으로 인해 더욱 복잡해졌다. MEAA는 학습 자료에서 직접적으로 재현된 결과물이 아니라 제작자나 공연자의 스타일이나 모습(likeness)을 모방할 때도 문제가 발생할 수 있다고 하면서, 많은 사람이 특정 배우, 연기자, 음악가, 예술가 또는 작가의 스타일로 작품을 제작하는 AI의 능력에 대해 우려하고 있다고 하였다. 촬영감독들은 AI가 아티스트의 작품에 기반하여 아티스트의 고유한 스타일을 구성하는 창의적 요소를 모방하여 새로운 작품을 제작할 수 있는 능력이 있음을 확인하였다.

호주의 음악 저작권 및 공연권 관리 단체 APRA AMCOS(Australasian Performing Right Association, Australasian Mechanical Copyright Owners Society)는 오디오의 증가하는 품질과 딥페이크 음악의 확산 속도에 대해 언급하며, 인기 아티스트의 모조품을 제작하기 위해 무단 데이터셋을 사용하여 AI 모델을 훈련시키고 있다는 것은 명백한 사실이라고 지적하였다. 아티스트의 프로필, 브랜드, 시장, 경제적 생계를 직접적으로 손상시키는 AI 콘텐츠를 생성하기 위해 보호받는 창작물이 허가 없이 사용되고 있다. 승인이나 대가 없이 아티스트의 저작물을 학습하는 AI의 문제 외에도, APRA AMCOS는 딥페이크 음악 제작의 용이성과 저렴한 비용이 음악 아티스트에게 더 광범위한 상업적, 재정적 영향을 미칠 수 있다고 경고하였다. 딥페이크 음악은 제작 비용이 저렴하고 로열티가 없기에, 작가, 연주자, 출판사 또는 음반사에게 보상을 지급할 필요가 없어, 음악 스트리밍 플랫폼이 딥페이크 음악을 허용하도록 장려할 위험이 있다.

AI 딥페이크는 성우에게도 심각한 위협이 되는데, 이는 AI가 작은 샘플로도 사람의 목소리를 빠르고 쉽게 복제할 수 있기 때문이다. 호주 성우 협회(AAVA)AI 기술이 성우의 동의 없이 목소리를 합성한 복제품을 만들 수 있게 함으로써, 성우의 업무를 침해할 위험이 있다고 하였다. 일부 회사들은 현재 성우들의 작업을 훔쳐 AI 머신러닝에 입력해 인간 아티스트의 복제품에 생명을 불어넣고 있다. 조사 참가자들은 또한 예술 작품의 저작권 보호와 달리, 개인의 초상이나 목소리 또는 외모의 고유한 특징에 대한 법적 보호가 명확하지 않고 접근성이 떨어진다는 점을 지적하였다. 이 문제에 대해 노동조합 위원회의 사무차장은 목소리, 신체, 움직임의 도용은 창의적인 노동자들이 심각하게 느끼는 문제라고 하였다. 호주의 크리에이티브 근로자에게 있어 창작 및 문화 자본의 소유는 무엇보다 중요하며 법으로 보호되어야 한다. AAVA는 아티스트의 목소리 딥페이크가 경제적 이익을 위태롭게 할 뿐만 아니라 초상의 무단 사용과 관련하여 심각한 윤리적 문제도 제기한다고 하였다. 성우의 목소리, 음색, 어조는 코드가 마이크로소프트의 재산인 것처럼 그들의 재산이다.

 

2. 정부의 안전조치 제안서

 

제안된 안전조치는 고위험 AI의 사용과 글로벌 인공지능 파트너쉽(Global Partnership on AI, GPAI) 모델에 적용되며, AI 기술이 계속 발전하고 자율성이 강화됨에 따라 목적에 맞게 조정될 수 있다. 고위험 AI 시스템을 개발하거나 배포하는 조직은 다음의 10가지 안전조치를 수행해야 한다.

1) 거버넌스, 내부 역량 및 규제 준수를 위한 전략을 포함하여, 책임 프로세스를 수립, 구현 및 게시해야 한다.

2) 위험을 식별하고 완화하기 위한 위험 관리 프로세스를 수립하고 구현해야 한다.

3) AI 시스템을 보호하고 데이터 품질 및 출처를 관리하기 위해 데이터 거버넌스 조치를 구현해야 한다.

4) AI 모델 및 시스템을 테스트하여 모델 성능을 평가하고 배포된 시스템을 모니터링해야 한다.

5) AI 시스템에 대한 인간의 제어 또는 개입을 활성화하여 의미 있는 인적 감독을 달성해야 한다.

6) AI 기반 의사 결정, AI와의 상호 작용 및 AI 생성 콘텐츠에 대해 최종 사용자에게 알려야 한다.

7) AI 시스템의 영향을 받는 사람들이 사용 또는 결과에 이의를 제기할 수 있는 프로세스를 구축해야 한다.

8) 데이터, 모델 및 시스템에 대해 AI 공급망 전반의 다른 조직과 투명하게 공유하여 위험을 효과적으로 해결할 수 있도록 지원해야 한다.

9) 3자가 안전조치 준수 여부를 평가할 수 있도록 기록을 보관 및 유지해야 한다.

10) 안전조치 준수를 입증하고 인증하기 위해 적합성 평가를 수행해야 한다. 이 중 안전조치 36은 저작권법과 관련된다.

 

. 안전조치 3 학습 데이터셋에 대한 정보의 공개

 

제안서의 안전조치 3은 고위험 AI 시스템을 개발하거나 배포하는 기업이 AI 시스템을 점검하고, 데이터 품질과 출처를 관리하기 위해 데이터 거버넌스 조치를 구현할 것을 요구한다. 데이터 품질은 AI 모델의 성능과 신뢰성에 직접적인 영향을 미치며, 데이터셋에는 차별적인 결과를 초래할 수 있는 편견이 포함될 수 있다. 따라서 모델을 훈련, 미세 조정 또는 테스트하는 데 사용되는 모든 데이터는 목적에 적합하고 대표성이 있어야 한다. 보안 취약성을 최소화하기 위해 조직은 데이터를 안전하게 저장 및 관리하고 무단 액세스 및 악용으로부터 데이터를 보호해야 한다. 또한 데이터는 합법적으로 획득해야 한다. AI 시스템이나 GPAI 모델을 학습시키는 데 사용되는 데이터셋에는 아동 성적 학대 자료나 동의 없는 은밀한 이미지 등 불법적이고 유해한 자료가 포함되어서는 안 된다. 그리고 데이터 소스가 공개되어야 한다.

호주 및 GPAI에서 안전조치 마련에 많은 부분을 참고한 EU AI 법에 따르면 범용 AI 모델 제공업체는 EU 저작권법을 준수하는 정책을 시행하고, 모델 학습에 사용된 콘텐츠의 요약을 공개적으로 제공해야 한다.

호주 법무부는 현재 저작권 및 AI 참조 그룹과 협의하여, 저작권 및 AI에 대한 호주의 접근 방식을 주도하고 있으며, 이 작업에는 제안된 의무적 안전조치와 저작권법의 교차점을 고려하는 것이 포함된다.

ISO/IEC 42001 EU AI 에 따라 안전조치에서는 데이터셋 및 수집 프로세스의 출처와 적법성, 데이터 출처에 대한 문서화, 고유 데이터 주권 및 ICIP의 원칙 고려, 데이터 품질 및 데이터의 목적 적합성 여부에 대한 평가, 라벨링 및 분류 방법을 포함한 데이터 준비 프로세스에 대한 접근 방식, 데이터 세트의 편향성 식별 및 그러한 편향성을 완화하는 방법, 사이버 보안 조치의 시행 등 다양한 내용을 다룬다:

제안된 안전조치는 AI 학습 데이터로 사용되는 콘텐츠에 대해 라이선스를 부여하거나 권리자에게 필수적인 학습 데이터에 대해 투명성과 출처 증명을 촉진한다. 호주에는 TDM 예외와 같은 AI 관련 예외 규정이 없다는 점을 고려할 때, 이러한 투명성 의무는 특히 중요하다. 하지만 이 안전조치에는 모호한 점들도 여럿 남아있다. '합법적으로 획득된'이 무엇을 의미하고, 해당 요건은 어떤 법률에 따라 판단해야 하는지, 그리고 호주 법률에서 데이터의 '합법적 취득'이 무엇을 의미하는지 등이다. AI 관련 예외 조항이 없다는 점을 염두에 두고, AI 개발자 또는 배포자는 권리자로부터 승인/라이센스를 받았음을 입증해야 하는지, 만일 그러한 권한이 없는 경우는 어떻게 해야 하는지에 대한 확인도 필요하다. 특히, 현재 이러한 프로세스에 필요한 대량의 콘텐츠 라이선스를 얻을 수 있는 실행 가능한 메커니즘이 없다는 점을 고려할 때 AI 학습 상황에서 저작물의 사용에 대한 승인을 어떻게 요구할 수 있을지와 현재 영국, EU, 일본에 존재하는 TDM 예외와 같은 특정 AI 관련 예외를 비록 더 제한적이라도 호주에 도입해야 하는지도 논란이 되고 있다.

 

. 안전조치 6 합성 콘텐츠 생성 시 AI 사용 공개

 

저작권 관점에서 관련된 또 다른 조항은 안전조치 6이며, 여기에는 AI의 사용 결정, AI와의 상호 작용, AI가 생성한 콘텐츠에 대해 최종 사용자에게 관련 정보를 제공해야 한다는 내용이 포함되어 있다. 이에 따르면, 기업은 텍스트, 이미지, 오디오 또는 비디오 콘텐츠를 포함한 AI 생성 결과물이 인위적으로 생성되거나 조작된 것이 감지할 수 있도록 최선의 노력을 기울여야 한다. 기업은 최종 사용자에게 AI가 어떻게 사용되고 있으며, 어떤 영향을 미치는지 알려야 한다. 또한, 그러한 조치는 명확하고 접근할 수 있으며, 관련성 있는 방식으로 전달해야 한다. 의무적인 투명성 조치는 고위험 AI 시스템을 배포하는 기업의 책임성을 강화할 뿐만 아니라 AI 시스템과 그 결과물에 대한 대중의 신뢰를 구축할 수 있다. 또한 사람들이 AI와 상호 작용하고 있다는 사실을 인지하여 필요한 경우 구제를 요청할 수 있도록 해야 한다.

이 안전조치는 세 가지 요구 사항을 포함한다: 기업은 사람들과 관련된 결정을 내리거나 알리는 데 AI가 사용된 경우 이를 알려야 한다; 기업은 사람들이 AI 시스템과 직접 상호작용할 때 이를 알려야 한다; 기업은 합성 텍스트, 이미지, 오디오 또는 비디오 콘텐츠를 포함한 AI 생성 결과물이 인위적으로 생성되거나 조작된 것임을 감지할 수 있도록 최선의 노력을 기울여야 한다. 이러한 요구 사항은 시스템에 의한 조작의 특정 위험에 대응하여, EU AI 및 캐나다의 AIDA에 의해 도입되었으며, 주로 GPAI 모델과 관련이 있다. 대중이 AI 생성 출력을 식별할 수 있도록 하는 적절한 방법은 아직 개발 중이다. 이러한 방법에는 알고리즘적으로 감지할 수 있는 AI 모델의 출력에 고유한 마커를 삽입하는 콘텐츠 라벨링과 워터마킹 기술이 포함된다. 이러한 방법은 계속 개발 중이며 최첨단 기술조차도 기술적인 단점을 가지고 있지만, 호주는 최선의 노력 접근 방식을 제안하고 있다. 이를 위해서는 기업이 자체 평가와 관련 표준을 참조하여 사용할 수 있는 최선의 방법을 적용해야 한다.

이 안전조치의 구현은 AI 탐지 및 라벨링 기술이 발전함에 따라 더욱 발전할 것이고, 국제 표준과 실무 규범의 발전에 따라 알려질 것이다. 콘텐츠 증명 및 진위성 연합(C2PA)은 프로방스 기술의 개발 및 사용을 안내하는 기준을 개발하였다. 이러한 기술을 통해 소비자는 디지털 콘텐츠 제작에서 AI의 기원과 사용처를 파악할 수 있다. C2PA는 이러한 기술의 사용에 대한 기준을 제공할 뿐만 아니라 “Content Credentials”이라는 자체 출처 기술을 개발하였다. 이 코드는 누구나 사용할 수 있도록 온라인에서 무료로 제공된다. 콘텐츠 크리덴셜을 통해 크리에이터는 특정 정보를 디지털 파일에 임베딩할 수 있다. 여기에는 크리에이터의 이름, 콘텐츠 생성 방법, 그 과정에서 AI가 사용되었는지와 방식 등이 포함될 수 있다.

호주 정부는 위와 같이 AI 사용에 대한 투명성을 높이려는 노력을 계속하고 있지만, 아직 해결되지 않은 문제도 여전히 남아있다. 먼저, 현재 제안된 안전조치는 모든 경우에 AI 사용을 공개해야 한다고 제안하는 것처럼 보이지만, AI가 제한적이거나 최소한의 환경에서 사용되는 경우(: 편집 목적 또는 AI가 생성한 자료가 영화와 같이 복잡한 저작물에서 비교적 작은 부분만 차지하는 경우) 또는 일반 대중이 특정 콘텐츠 생성에 AI가 사용되었는지 여부에 관심이 없는 경우(: 마케팅 메시지나 포스터 제작에 AI 사용)에 공개가 필요한지 명확하지 않다. 공개 설문조사에 따르면, 일반 대중은 AI 사용이 미미한 경우 공개에 대한 기대치가 낮은 것으로 나타났다. 또한, AI에 의해 생성되었지만 사람이 상당 부분 수정한 콘텐츠에도 이러한 공개 의무가 적용되는지, 그리고 무엇이 '상당한' 정도로 수정된 것인지도 불분명하다. 다음으로, 예상되는 공개 형식은 무엇이어야 하며, 콘텐츠 유형(이미지, 동영상, 텍스트)에 따라 이러한 의무가 어떻게 달라지는지도 명확하지 않다. 후속 사용자에게 콘텐츠를 전송하고 수정할 때 워터마크 및 기타 식별자가 유실되거나 의도적으로 제거되지 않도록 하는 방법이 무엇인지, AI 사용 공개에 대한 책임은 누가 져야 하는지도 불분명하다. AI 개발자 또는 배포자 외에도 정책 입안자는 콘텐츠 사용자에 대한 특정 의무 또는 금지 사항(: 라벨 또는 기타 AI

 

 

 

3. 시사점

 

 

호주 상원 AI 특별위원회는 AI와 관련된 문제를 폭넓게 다룬 보고서를 발표하면서 저작권과 관련된 문제로써, AI의 도움을 받아 창작한 저작물에 대한 저작권 보호, AI 학습을 위한 저작물의 사용, 저작권자에 대한 보상, 생성형 AI 관련 저작권, AI 딥페이크 또는 아티스트의 모방의 문제를 다루었다. 또한, 호주 정부는 AI 개발자들이 의무적으로 준수해야 할 안전조치 제안서를 제안하였고, 그 중 안전조치 3은 합법적인 데이트만을 사용하고, 데이터 소스를 공개하도록 하며, 안전조치 6AI를 사용한 결정, 상호 작용 및 생성한 콘텐츠에 대해 관련 정보를 제공하도록 하고 있다. 이러한 호주 의회와 정부의 보고서와 제안서를 살펴보면, 강력한 저작권 보호와 정당한 보상을 주장하는 저작권자와 AI 산업 발전을 위한 저작권 제한을 주장하는 AI 개발자의 의견 대립이 팽팽하다는 것을 느낄 수 있다. 그런데, 흥미로운 것은 저작권법 측면의 저울에서 호주 의회와 정부는 AI보다는 저작권자에게 좀 더 무게가 기울어 있다는 느낌을 받았다는 것이다. 이러한 점은 저작권자의 권리를 더 넓게 보호하려 하고, 예외를 인정하지 않으려 하며, 투명성과 책임성을 보장하기 위해 데이터의 공개와 AI 사용 여부까지 의무적으로 공개하도록 하고 있는 점에서 확인할 수 있다. 이는 호주가 AI에 대해 강력한 규제를 하기로 선택한 것이 아닌가라는 생각이 든다. 이는 사실 많은 해외 국가들이 AI 도입 초기와는 다르게 최근에 보이는 모습이어서 최근의 경향이라고 할 수 있다. 이러한 경향은 AI에 대한 개발 기준과 책임을 정해야 하는 우리의 입장에서도 참고할만한 가치가 충분히 있어 보인다.

 

 

 

 

참고자료

 

Amazon Web Services (AWS), ‘AWS Service Terms’, 19 November 2024, (https://aws.amazon.com/service-terms/), clause 50.10.2.

Australian Government, Safe and Responsible AI in Australia Proposals paper for introducing mandatory guardrails for AI in high-risk settings September 2024.

European Parliament, ‘Generative AI and watermarking’, European Government, 2023.

Coalition for Content Provenance and Authenticity, ‘Overview’, C2PA, 2023.

Mr Joseph Mitchell, Assistant Secretary, ACTU, Committee Hansard, 21 May 2024.

Ms Lucinda Longcroft, Director, Government Affairs and Public Policy, Australia and New Zealand, Google, Committee Hansard, 16 August 2024.

Ms Nicole Foster, Director, Global AI/ML Public Policy, Amazon Web Services, Committee Hansard, 16 August 2024.

The Senate, Select Committe on Adopting Artificial Intelligence.

 

  • 담당자 : 손휘용
  • 담당부서 : 국제통상협력팀
  • 전화번호 : 055-792-0089

본 페이지의 내용이나 사용 편의성에 대해 만족하십니까?

  • 만족도 총 5점 중 5점
  • 만족도 총 5점 중 4점
  • 만족도 총 5점 중 3점
  • 만족도 총 5점 중 2점
  • 만족도 총 5점 중 1점
평가하기