[리포트] 게임에 AI 사용, "취약계층에 해악 끼치지 말아야"
이두현 기자 (Biit@inven.co.kr)
AI 기술 사용이 보편화되는 가운데, 게임에 적용할 경우 '취약계층에' 반복적 플레이나 정신적 중독을 유발하지 말아야 한다는 경고가 나왔다.
한국콘텐츠진흥원은 '글로벌 게임산업 트렌드' 리포트를 통해 게임산업에 적용될 수 있는 AI 규정을 살펴봤다. 콘진원은 EU가 올해 8월 세계 최초로 AI법(AI Act) 시행한 것이 국내 게임사의 사업에 어떤 영향을 미칠지 분석했다.
EU AI법은 AI 시스템을 위험 수준에 따라 △수용 불가능한 위험 △고위험 △제한적 위험 △낮은 위험 등 4단계로 구분한다.
콘진원에 따르면 게임은 주로 '낮은 위험'으로 분류되지만, 아동의 정서 발달에 영향을 미치는 콘텐츠를 AI로 제작할 경우 '고위험'으로 분류돼 규제 대상이 될 수 있다. 특히 AI를 활용해 제작된 게임 콘텐츠가 아동에게 부정적 영향을 미칠 경우 개발자, 배포자, 유통사, 수입자 모두 제재 대상이 될 수 있다.
콘진원 측은 "EU의 AI법은 AI 시스템이 사용자에게 해악을 끼치지 않도록 요구하며, 게임 제작사는 AI 기반 콘텐츠가 반복적인 플레이나 정신적·물질적 중독을 유발하지 않도록 주의해야 한다"며 "투명성 준수 조항에 따라 AI 기능이 게이머와 투명한 상호 작용을 할 수 있도록 시스템을 구축해야 한다"라고 강조했다.
EU 외 AI 규제로, 미국은 연방 차원의 AI 규제 법안은 없지만 각 주 정부에서 개인정보 보호, 보안, 차별 금지 등에 초점을 맞춘 법안을 마련 중이다. 일본은 AI 산업 규제보다는 자발적 준수를 권장하는 가이드라인을 활용한다. AI가 인간 존엄성과 시민 안전을 해치지 않도록 하는 데 중점을 두고 있다. 중국은 추천 알고리즘 및 생성형 AI 시스템에 대한 규제를 도입했다. 투명성과 기술 활용의 윤리성을 강조하며, AI 개발자의 책임을 명시하고 있다.
관련해 소니는 AI 기술의 윤리적 기준 준수를 위한 내부 프레임워크를 운영 중이다. 유비소프트는 '책임감 있는(Responsible) AI' 프로그램을 통해 AI 기술 개발 과정의 투명성을 확보하고 있다. 블리자드와 EA는 내부 통제 조치를 시행하고 있다.
콘진원 측은 "국내법상 AI가 단독으로 생성한 콘텐츠는 저작권 보호 대상이 아니므로, AI 창작물과 인간 창작물을 구분하는 기준 마련이 시급하다"며 "AI 생성 콘텐츠에 대한 기업의 책임 규정, 워터마크 사용, AI 창작물 관리 기준 정비 등도 필요하다"고 제시했다.