[기획] EU는 왜 'AI가 만들었음' 라벨을 붙이나

기획기사 | 강승진 기자 | 댓글: 4개 |



AI가 만든 그림의 저작권은 누구에게 있을까? AI가 독려하는 행동은 인간의 자유 의지를 방해하지는 않을까? 생성형 AI의 대두로 본격적으로 논의 필요성이 부각된 인공지능의 윤리적 문제가 유럽 집행위원회를 통해 규제 방안으로 가닥이 잡혔다.

덴마크 출신 정치인이자 유럽 집행위원회(European Commission, EC)의 마르그레테 베스타게르 EC 상급 부위원장은 25일 니혼게이자이 신문(닛케이)과의 단독 인터뷰에서 AI가 작성한 문장, 이미지에 'Made with AI(AI 작성)' 문구를 표기하고 생성 AI 기업에 부과하는 규제안에 대해 언급했다.

단순히 정보 표시에 그치는 건 아니다. 일찌감치 AI 규제안을 준비해온 EC가 AI 위험 단계와 그 수준에 따른 규제안을 2023년 내 확정, 도입하며 공공연히 규제 기어를 높인다는 계획이다.


AI 위험 수준 4단계 구분 EU, 세부 규칙으로 법적 프레임워크 만들자

EC의 AI 규제 움직임은 오픈 AI와 챗 GPT, 미드저니 등 생성형 인공지능으로 대중에 깊이 파고들기 이전, GPT-3 공개 이듬해인 2021년 4월 시작됐다. 당시 EC는 AI 시스템 상황에 따른 포괄적 위험 등급을 설정하고 각 등급에 맞는 규칙을 정립하는 제안을 발표했다.



▲ 마르그레테 베스타게르 유럽집행위 상급 부위원장

EC가 내다본 핵심은 AI를 얼마나 신뢰할 수 있는 지다. 간단하게는 지금 내가 이용하고 있는 서비스가 AI를 통한 것인지 정확하게 인지시키는 것부터 AI에 따른 위험성 공지, 나아가 AI가 인간의 자유 의지를 상실시킬 경우 AI 기술에 대한 원천 차단까지 고려한다.

위험 단계는 4가지로 나뉜다.

EC가 최소 위험 단계(Low or Minimal Risk)로 구분한 AI 위험 수준은 굉장히 제한적인 AI 단계만을 다룬다. 비디오 게임, 스팸 차단 필터 프로그램 등이 이 단계에 해당하며 근래 생성형 AI를 통해 확장된 AI 개념보다는 고전적인 AI 개념 수준에 그친다.

제한적인 위험 단계(Limited Risk)에는 챗봇 등 투명성 의무를 지닌 AI 시스템이 해당된다. AI 시스템은 이용자가 인간이 아닌, 기계와 상호작용하고 있다는 사실을 인식하고, 나아가 해당 정보에 입각한 결정에서 사용자 스스로 물러설 수 있도록 해야 한다.

높은 위험 단계(High-Risk)는 AI 시스템이 생명, 안전, 공공의 이익과 관련된 내용을 다루는 단계다. 인간 생명과 직결된 인프라인 교통, 채용 절차를 위한 이력서 분류, 대출 기회를 거부하는 신용 점수 분류, 이주 망명 등 국경의 통제와 관련된 문서의 진위 확인, 법과 관련된 민주적 절차 등 많은 AI 시스템이 포함된다.

높은 위험 단계로 분류된 AI 시스템은 시장 출시 전부터 엄격하게 관리된다. 위험 평가와 완화 시스템 구축부터 당국의 규제 준수 평가를 위한 세부 문서 제출, 인적 감독 조치 진행, 나아가 보안과 정확성에 대한 높은 수준을 요구받는다. 자동화된 부분에서 인간의 관리 감독이 필수라고 보는 셈이다.

특히 이 단계의 AI 시스템은 생성형 AI, 대규모 언어 모델 등이 활성화되며 본격적으로 우리 사회, 기업에서 도입하기 시작한 부분이다. EC의 규제안이 적용되면 해당 기술을 앞세둔 기업의 시장 진출에 어려움이 따를 수밖에 없다.

특히 EC는 원격 생체 인식 시스템을 특히 위험하게 간주하고 엄격하게 관리한다. 실종 아동을 찾거나 분명하고 곧 닥칠 테러의 주동자 분석, 심각한 형사 범죄 용의자 감지 등 좁은 예외만을 두고 원격 생체 인식을 엄격하게 금지한다. AI 시스템에 의해 시민을 평가, 분석하는 행위 역시 엄단한다.



▲ EC가 분류한 AI 위험 4단계

가장 높은 분류인 허용할 수 없는 위험(Unacceptable Risk)는 인간의 안전, 생계, 권리에 명백한 위협으로 간주한 AI 시스템이 분류된다. 인격체로서 자유의지에 따라 결정을 내리는 도덕적, 이성적 인권 상황을 예방하고자 함이다.

AI 시스템이 인간의 자유의지를 침해하는 것이 먼 미래 이야기처럼 들릴 수 있지만, EC의 구분에 따르면 AI 위협은 실체적인 단계에 있다. 생성형 AI의 경우 많은 단계에서 오류 데이터를 학습, 잘못된 답을 내놓는 환각 오류가 존재한다. 인간이 이러한 잘못된 정보만을 따를 경우 자유의지 없이 잘못된 행동을 그대로 따를 수 있다. 성숙하지 않은 미성년자가 이용할 수 있는, AI 시스템이 적용된 음성 지원 장난감 같은 경우도 여기 포함될 수 있다.

베스타게르 상급 부위원장의 이번 인터뷰는 단순히 AI 생성형 콘텐츠를 분명히 명시하는 단계를 넘어 인공지능 규제 프레임워크를 당초 계획했던 2023년 말까지 합의, 시행한다는 계획을 다시금 명시했다는 데 그 의의가 있다.


미국-중국 주도의 AI 성장, 규제안은 EU의 견제구?

EC의 AI 규제 프레임워크는 크게 인간의 기본권 보호에 큰 방점이 찍혀있다. 베스타게르 상급 부위원장은 AI 시스템 발전 자체는 방해하지 않으며 시장 출시 전, 기업 개발 단계에서의 혁신은 얼마든지 추구할 수 있는 규칙이라는 점을 강조했다.

다만 베스타게르 상급 부위원장이 EC에서 어떤 부분을 관리하는지를 생각하면 순수하게 AI의 위험성 탓에 규제 속도를 높인다고 보기 어렵다. 베스타게르 상급 부위원장은 EU의 반독점 규제에 중심을 둔 인물로 글로벌 IT 거물들에 철퇴를 내린 인물이다.

실제로 그는 닛케이와의 인터뷰에서도 챗 GPT 등 AI 시스템의 EU 경쟁법 위반에 따른 규제 가능성을 언급했다.




마이크로소프트가 투자한 오픈 AI, AI 시장에서 상정 외 기술력을 지녔다 평가받는 구글 등 AI 시장은 방대한 데이터 수집을 바탕으로 미국 중심으로 확장됐다. 특히 미국 국방부는 군사 분야를 넘어 기초 과학부터 응용 분야까지 자원 투자를 아끼지 않으며 AI 기술 강화를 꾸준히 강조했다.

중국 역시 AI 강국으로 떠오르고 있다. 인공지능 기업 수, 특허 논문 등 이미 미국에 견줄 강대국으로 꼽힌다. 특히 거대 내수 시장과 중국 정책적 지원, 개인 보안에 관한 규제 부족에 따른 자유로운 개발 환경은 중국의 AI 성장에 속도를 내는 요인으로 꼽힌다.

특히 중국은 AI 규제 움직임 방향을 강력한 제작, 유통 금지 방향으로 잡아나간다. 당국 검열을 넘어서는 콘텐츠 차단을 주요 목적으로 한다는 견해가 많다. 이에 챗 GPT를 차단하며 오히려 자국 기업의 경쟁력을 높였다는 평가를 받기도 했다.

오픈 AI 투자로 AI 핵심 기업으로 떠오른 마이크로소프트의 브래드 스미스 회장 역시 21일, 중국 기관과 기업을 챗 GPT의 주요 경쟁자로 꼽은 바 있다.

EC가 명확한 법적 근거를 마련해 두고 미, 중의 거대 인공지능 기업을 견제한다는 의견이 떠오른 이유다. 실제로 EC는 규제 프레임워크를 둔 동시에 EU 전역에 AI 투자, 혁신 강조를 함께 강조했다.

미-중 견제 움직임에 나서는 EU의 움직임이 마냥 먼 나라의 이야기만은 아니다. 당장 유럽 시장에 사업을 전개하거나 전개 목표를 둔 AI 관련 기업의 움직임에도 제동이 걸릴 수 있다.




더 큰 문제는 기술, 데이터 종속이다. 기계 학습, 딥러닝 기술에는 수많은 데이터 연산과 학습이 필요하다. 그렇기에 많은 AI 서비스는 GPT를 대체할 한국형 GPT 파운데이션 모델(비지도 훈련을 통한 AI 신경망) 개발보다는 GPT를 활용하는 단계로 이루어진다.

한국어 인식 능력까지 개선된 GPT-4의 등장은 우리만의 파운데이션 모델 경쟁력 약화를 불 지피고 있다. GPT 활용 서비스가 우후죽순 늘어나고 데이터 편중은 가속화되며 기술, 보안 정보 유출 문제 역시 불거지고 있다.

유럽의 초국가적 단체인 EC기에 규제를 무기로 자국 AI 보호에 나서는 움직임을 펼칠 수 있는 만큼 국내 기술 종속 우려는 커질 수밖에 없다.


AI 확산에 따른 윤리적 논의는 그래도 필요하다

AI 시장 주도권을 주고 거대 시장을 기반에 둔 국가들이 앞다퉈 투자와 개발을 이어나가기에 EC의 규제안은 분명 이런 움직임에 제동을 거는 모양새다. 하지만 이러한 규제 프레임워크가 불러올 윤리적 문제에 관해서는 EU를 넘어 초국가적 단계에서도 고민이 필요하다.

기술 우위를 지닌 전문가 집단에서는 생성형 AI가 보여주는 현재 능력이 사회 변화를 크게 불러오지 않으리라 내다보지만, 그 부족하다는 기술의 대중화는 분명 많은 기업과 사회 시스템을 변화시키고 있다. 단순히 논문을 대필하거나 인사 채용 문서를 걸러내는 기업의 이야기는 이제 더는 낯설지 않고 그 기술을 다양한 분야에서 활용하고자 하는 움직임 역시 커지고 있다.



▲ 성인 게임, 비성인 대상 게임 가리지 않고 스팀에 등록되는 AI 생성 이미지 게임들
(이미지는 This Girl Does Not Exist)

생성형 AI가 창작 영역에 뛰어들며 기술 침투도 일상화됐다. 특히 게임, 항상 기술 적용 첨단에 있는 포르노 분야에서의 기술 활용이 두드러진다.

일러스트 자체가 중요한 장르의 게임은 생성된 이미지를 리터칭하는 게 직접 제작하는 것보다 개발 속도를 높일 수 있는 경우가 있다. 이미지 자체가 게임 구매에 큰 영향력을 미치는 캐주얼 포르노 게임의 경우 이미 AI 생성 이미지가 넓게 활용되고 있다. 일본의 동인 사이트인 DLsite, FANZA 동인 등 소프트웨어 판매 페이지도 생성형 AI를 활용한 게임, 일러스트 판매가 늘자 AI 활용 정도에 따라 AI 생성 작품, 혹은 AI 일부 이용 태그를 신설해 이를 구분했다. 여기에 월 등록 횟수를 제한하는 조치를 단행하기도 했다.

또 이러한 생성물이 실제 인물의 모습을 학습해 비슷하게 그려냈을 경우 발생하는 문제 역시 크다. 학습 기술을 활용한 일반인, 연예인 딥페이크의 폐해는 이미 논란이 된 바 있다.

학습 자체가 실제 작품을 통해 이루어지는 만큼 저작권 논리에서도 자유로울 수 없다. 구매해야 이용할 수 있는 유료 라이선스 스톡 이미지를 학습 대상으로 활용했다는 이유로 게티 이미지는 스태빌리티AI를 상대로 소송 중이다. 작가마다 고유의 화풍이 존재하는 만큼 동의 없이 생성형 AI 학습에 사용됐다며 사라 앤더슨 등 유명 일러스트레이터, 화가들도 미드저니 등을 대상으로 소를 제기했다.


이미지만이 아니다. AI 기반으로 코딩을 지원 MS의 깃허브 코파일럿은 깃허브에 있는 다른 코드 내용을 베껴다 제안한다는 논란을 피할 수 없었다. MS가 자사 서비스인 깃허브 내용을 이용한다 볼 수 있지만, 이미 깃허브가 Git 저장소로서 역할을 해오던 도중 MS가 이를 인수했기에 라이선스 재활용 동의가 모두 적용될 수 있느냐는 문제 역시 따라온다.

장르적 유사함, 외형에서의 유사함으로 게임의 표절 시비가 불거진 것이 과거였다면, 이제는 명확하게 저작권을 판별하지 못하는 AI 창작물을 어디까지 인정해야 할지가 핵심이 될 수밖에 없다.

EC가 지적했듯 인간의 자연권 침해 역시 지적해볼 수 있는 일이다. 중국의 AI는 프라이버시, 개인 정보 보호에 대한 명확한 규제 없이 체제 유지를 위해 방대하게 사용될 여지가 많다는 이유로 우려 대상이 된다. AI에 지나치게 의존하는 경우 넓게는 어디까지 자신의 의지로 행동하는지 명확하게 구분하기도 어렵다.

이러한 규제 움직임 자체에는 유럽만이 아니라 기술 우위로 꼽히는 미국도 동참한다. 미국 전기통신정보국은 11일 AI의 급속한 변화에 따른 가드레일 필요성을 언급하며 관계자의 의견 확인을 통해 실태 조사에 돌입한다고 밝혔다.

이러한 입장은 앞서 조 바이든 대통령을 통해서도 언급됐다. 바이든 대통령은 4일 AI 위험성 자체에 대해서는 두고 봐야 한다면서도 사회, 국가 안보, 경제에 잠재적 위험을 해결할 필요에 대해서는 강조했다. EC처럼 AI 서비스 출시 전에 그 위험성을 확인해야 한다는 주장이다.

오픈 AI 역시 GPT-4 공개 당시 고급 추론 및 데이터 지침 준수 기능을 특별하게 강조하며 안전한 대규모 언어 모델임을 따로 설명하기도 했다. 하지만 정부 측에서 규제에 대해 속도를 높이면 기업들도 AI 서비스 확장만이 아니라 출시 전, 안전 장치를 마련하는데에도 더 공을 들여야 할 것이다.



▲ 시프트업 김형태 대표가 트위터에 공유한 AI 생성 이미지.
스테이블 디퓨전에 자가 학습 모델을 이용, 포토샵으로 리터칭한 작업물이다

다만, 이러한 규제 장치가 스테이블 디퓨전처럼 널리 쓰임에도 이미 오픈 소스로 공개되고 개인 공유 중심의 학습 모델로 확장되는 것까지 완벽하게 막을 수 있을지는 알 수 없다. 국내외 AI 기업들도 시스템 이용자가 직접 학습하는 형태의 이미지 모델을 만들어 일러스트레이션, 2D 캐릭터 구현 등 그림 작가의 역할을 AI가 대신할 수 있는 단계를 준비하고 있다.

사람의 그림에 비해 완성 속도는 빠를지언정 그 완성도가 떨어져 게임, 웹툰 이용자가 AI 그림을 찾아내 논란이 불거진 경우도 여럿 있다. 하지만 지금의 발전 속도를 보면, 학습 모델만 충분하다면 인간 노동자를 대신해 AI 그림이 게임, 소설 삽화를 대신 그려내는 게 그다지 먼 미래가 아닐지 모른다.

EC가 구분한 AI 규제 구조가 전세계가 동의할 수 있는 내용인지 확답할 수 없고 기술적 혁신이 꾸준히 발생하는 산업을 명확하게 구분 짓기란 더없이 어렵다. 결국 EU만이 아니라 시장을 주도하는 국가부터 기술적 종속 단계에 있는 국가들까지 초국가적 논의 단계가 있어야 한다. 그렇지 않다면 국가 장벽을 넘어선 콘텐츠 확장이 이루어지는 만큼 그 논의가 없다면 누군가는 AI의 피해자로서 남을 수밖에 없다.

지금은 모두가 이용할 수 있는 AI처럼 보이지만, 결국 기술 우위에 있는 기득권에 정보와 일자리가 쏠리는 편중화 역시 부정적 미래로 그려질 수 있고 말이다.

댓글

새로고침
새로고침

기사 목록

1 2 3 4 5