게임업계가 적극적으로 인공지능(AI) 기술을 받아들이고 있는 가운데, 향후 일어날 수 있는 기술, 법, 제도 문제를 미리 짚어보는 토론회가 지난 지스타 기간 개최됐다. 4차산업혁명융합벅학회 김주현 회장은 "제기되는 여러 논점들이 AI를 활용한 게임산업 분야의 발전과 이를 수용하는 우리 정책 방향 설정에 큰 도움이 될 것이라고 믿는다"라고 말했다.
엔씨소프트 정지년 인텔리전트 에이전트 랩 실장이 게임개발 혁신과 AI 정책 지원을 얘기했다. 그는 엔씨의 AI 콘텐츠인 '거울 전쟁', '무한대전', '용병 시스템' 등을 개발했다. 정 실장은 게임개발에서 AI를 '보조형', '감독형', '캐릭터형'으로 나눴다. 보조형은 개발자가 제작명령을 내리면 결과물을 보고한다, 감독형은 게임개발에 운영에서 통제를 돕는다. 캐릭터형은 플레이어와 상호작용을 한다.
정 실장은 "보조형 AI로 새로운 이야기와 콘텐츠를 빠르고 효율적으로 만들고, 감독형으로 게임의 흐름을 재미있게 유지되도록 조율하며, 캐릭터형으로 게임세계에서 캐릭터와 특별한 관계를 맺으며 함께 플레이할 수 있다"라며 "더 몰입감 있고 다양한 콘텐츠를 더 효율적으로 제작할 수 있다"고 소개했다.
정책 지원에 대해 정 실장은 △초상권과 저작권 등 데이터 수집 및 활용에 대한 법적 정비 △데이터 수집에 대한 정책적 지원 △AI 학습, 서비스 관련 장비 조달 및 운영을 위한 정책적 지원이 필요하다고 제시했다. 예로 AI 칩으로 알려진 엔비디아 GPU H100 가격은 지난해 4천만 원대에서 올해 4월 6천만 원을 돌파해 기업에 대한 정부 지원이 필요하다는 것이다.
김태경 교수(경희대학교 빅데이터 응용학과)는 "생성형 인공지능 개발과 연구의 프론티어(최전선)이자 발원지로 게임 산업을 다시 볼 때"라면서도 "안타깝지만 현행 법제도의 미비와 정책의 부족함이 제약으로 다가오는 실정"이라고 짚었다.
김 교수는 인공지능을 둘러싼 문제를 크게 △사회제도적 문제와 △기술적 문제로 나눴다. △사회제도적 문제는 우리가 축적한 데이터를 사용할 수 있는 정당성은 어떻게 부여하고, 개인정보를 보호할 방법, 그리고 악의적 활용을 사전에 차단하거나 범죄적 행위에 대한 책임을 물을 방법 등이다. △기술적 문제는 생성형 인공지능을 탄생시키기 위해 지불해야 하는 에너지 비용, 인간의 노력과 기업의 투자 노력, 그리고 보다 더 자본력이 부족하고 독립성을 인정받아야 할 개발팀이나 그룹의 권리를 보호하기 위한 공공 기관의 지원 방안과 노력, 그리고 이를 둘러싼 가용 기술의 발전과 공개 정도에 관한 합의 등이다.
범용성과 합목적성에 따른 문제도 있다. 김 교수는 "보다 많은 사람들을 위해 만들어진 범용적 생성형 인공지능은 윤리성을 담보하기 위해 입력과 출력을 검열하고 제한된 범위에서 사용을 허락해야 한다"라면서도 "이 경우 사전에 정의된 혜택의 수준을 보장할 수는 있으나 생성형 인공지능의 가능성을 차단할 수 있는 문제가 있다"고 전했다. 이어 "합목적을 지향하는 인공지능은 그 적용 범위를 가능한 넓히고 윤리적 허용선을 낮춤으로써 인공지능 활용에 따른 규모의 경제 및 범위의 경제를 보다 쉽게 달성할 수 있다"라며 "가령 아동의 학습을 위한 인공지능과 군사적 용도의 인공지능은 범용성과 합목적성에 따라 달리 판단되고 관리되어야 한다"라고 덧붙였다.
김 교수는 "게임에서 활용되는 인공지능 역시 극복해야 할 사회제도적 문제, 기술적 문제를 안고 있고, 이것은 게임 환경에서의 범용성과 합목적성을 따라 그 정당성을 인정받을 필요가 있다"라며 "개발사, 투자자 그리고 사회의 다른 이해관계자 및 다제간 학문의 협력을 받아 풀어야 할 문제로 판단한다"라고 전했다.
강준모 전문위원(조두영 법률사무소)은 게임개발 및 운영에 있어 AI 활용 시 고려해야 할 점으로 △지적재산권 문제 △AI 알고리즘 편향성 문제 △다크패턴 활용에 대한 프라이버시 문제를 꼽았다. 먼저 강 위원은 캐릭터, 시나리오 등의 저작권 점검, AI 라이선스 및 계약 확인, AI 적용 데이터 출처 및 해당 권리 확보 등의 세부 문제점 등을 예상했다.
편향성 문제는 인종, 성별, 나이, 성적 지향 등과 관련된 불평등 강화다. 세부적으론 데이터 편향성, 알고리즘 편향성, 피드백 루프 편향성, 의도하지 않은 편향성 등이다. 김 교수는 "투명하고 다양한 데이터 수집, 알고리즘 편향 점검 및 수정 도구 개발 등의 노력을 통해 문제를 해결하는 것이 바람직하다"라고 제언했다.
아울러 김 교수는 다크패턴 활용 방지를 위해 "사용자들은 게임의 부정적인 관행을 감지하고 방어하기 위해 주의를 기울여야 하며, 게임 제작자, 배포사 등은 유저에 대해 관련행위 사전고지(opt-in) 및 불만해소 창구 마련 등을 통해 명확한 개인정보·프라이버시 보호정책의 일관성을 보여줄 필요가 있다"고 강조했다.
전성민 교수(가천대학교 경영학부)는 "생성형 AI 분야에서 상당한 경쟁 우위를 확보하지 못한 유럽이나 선구적인 이점을 보호하려는 주요 기술 기업에는 엄격한 규제 전략이 가장 효과적일 수 있지만, 이러한 접근 방식은 국내에서는 적합하지 않을 수 있다"라며 "AI 운영 체제 및 클라우드 서비스와 같은 측면을 통합하여 AI 플랫폼의 플랫폼 부문에 대한 기술 혁신적인 접근방법이 필요하다"라고 밝혔다. 이어 "따라서 정책 당국은 AI 플랫폼의 플랫폼 분야 부문을 전략적으로 육성하는 홍보 정책 시행이 필요하다"라며 "이 전략은 AI 플랫폼 영역의 성장을 촉진할 뿐만 아니라 글로벌 AI로서의 한국의 잠재력을 보호하는 것"이라고 덧붙였다.
강지현 변호사(법무법인 리율)는 학습 데이터의 성격에 따라 저작권 침해 인정 가능성이 있다고 봤다. 이에 입증책임의 전환 가능성을 고려하여 △생성형 AI가 창출한 결과물에 출처표시 의무화 △학습 데이터의 이력관리 의무화 △학습 데이터의 규격화를 제시했다. 그는 "원저작권자의 권리가 약해질수록 AI로 게임을 개발하는 개발사의 권리도 축소될 것이다"라고 강조했다.
정정원 교수(법학박사, 대구가톨릭대학교 경찰행정학과 산학협력교수)는 "어떠한 개발자의 노력과 자본의 투하 등에 따른 창작물의 규범적 보호 필요성에 대해서는 어떠한 의문의 여지가 없다"라며 "AI를 활용한 창작 혹은 AI에 의한 창작 역시 창작물에 대해 규범적으로 보호해야 한다"라고 의견을 냈다. 이어 AI 개발 최종 목표가 인간과 동일한 인공지능이라면, "AGI(범용 인공지능) 창작에 대하여 어떠한 규범적 평가를 내릴 것인지에 대하여도 현재 단계에서 선제적으로 논의되어야 한다"라고 덧붙였다.
정 교수는 "AI를 활용한 인간의 행위에 대하여 다양한 측면에서 활발하게 논의가 진행되고 있는 것으로 여겨지는바, AI를 활용하는 이들이 예측가능성을 확보할 수 있도록 AI 활용과 관련한 일정한 행위 준칙(가이드라인)을 형성‧적용하기 위한 논의 역시 빠른 시일 내 시급하게 이루어져야만 한다"라고 말했다.
김운용 변호사(다솔 법률사무소)는 "생성 AI는 프로그램이나 알고리즘의 측면에서는 큰 진보를 가져올 것이지만, 동시에 창조성이란 무엇인지라는 근본적인 의문을 제기하게 한다"라며 "동시에 생성 AI로 인하여 제작된 정보에 대하여 권리가 인정되면, 소수의 사람이 생성AI로 만들어진 정보를 권리라는 이름으로 독점하는 현상이 벌어지지 않을지도 우려된다"고 의견을 냈다.
홍선기 교수(동국대학교 법과대학)는 "경제발전을 위해서는 온라인 게임에 대한 육성지원이 필요하다는 명제와 온라인 게임이 가지는 부작용을 줄이기 위해서는 규제가 불가피하다는 명제가 충돌하는 양상이 발생한다"라며 "여기에 인공지능이 결합한 게임의 경우 인공지능에 대한 규제가 그대로 게임에도 적용되는지 여부도 주요 쟁점이 될 것"이라고 내다봤다. 이에 "예를 들어 사람의 건강, 안전, 기본권에 중대한 위해를 끼칠 위험이 있는 고위험 인공지능이 게임과 결합할 경우 이에 대한 규제는 과연 어떻게 이루어져야 하는지에 대한 진지한 논의가 앞으로 진행되어야 할 것으로 보인다"라고 제언했다.
윤지영 한국형사법무정책연구원은 안전한 활용을 위해 "생성 행위자들은 반드시 이들(인공지능)이 컴퓨터 내 존재라는 것을 공개해야 한다"라며 "개발자들은 생성 행위자들이 특정 맥락에서 부적절한 행동을 하지 않도록 가치에 맞게 조정해야 한다"라고 강조했다. 예로 인공지능이 인간의 사랑 고백에 응답해서는 안 된다는 것이다.
윤익준 교수(법학박사, 대구대학교 법학과 연구교수)는 "과도한 데이터 보호 규정 또는 규제 중복에 더하여 AI 규제 법안의 수용은 AI 활용을 통한 새로운 유형의 게임을 제작하고 서비스해야 할 기업의 입장에서는 기술 개발의 어려움과 더불어 산업적 활용에 상당한 부담이 될 우려가 있다"라며 "특히, 의료나 교통 등 공공성을 지닌 분야에서의 AI의 활용과 게임이나 AI 기반 검색 서비스 등 민간 분야에서의 그 활용은 규제 수준과 정도를 달리할 필요가 있다"고 제시했다.