1. 윤리와 법리 그리고 권리
최근 인공지능(AI) 기술의 급속한 발전은 사회에 혁신적인 변화를 가져왔지만, 이와 동시에 예상치 못한 위험과 윤리적 문제를 야기할 수 있는 가능성도 공존한다. 이러한 상황을 경계하기 위해 전·현직 OpenAI와 Google DeepMind 연구자들은 "첨단 AI에 대한 경고 권리(Right to Warn)"라는 성명서를 발표하기도 했다. 이 성명서의 배경에는 AI 기업들이 상업적 이익에 치중해 안전 문제를 경시하고 있다는 비판이 깔려 있으며, AI 분야의 저명한 학자들인 요슈아 벤지오, 제프리 힌턴, 스튜어트 러셀 등도 이를 지지했다. 내용을 살펴보면 AI 기술 발전 과정에서 내부고발자의 권리 보장과 더불어 투명성과 책임성을 강조하고 있는데, 다가올 AI 시대에 대한 다각적인 시각과 접근 방식에 있어 한 번쯤은 알아두면 도움이 된다. 공동 성명에 참여한 13명은 ‘AI 기술이 인류에 대해 전례 없는 혜택을 제공할 수 있다고 얘기하면서도 동시에 허위 정보의 확산, AI 체계의 통제력 상실, 불평등 심화 등의 심각한 위험을 경계해야 한다’는 메시지를 전했다.
성명서는 AI 기업들이 위험에 대해 투명하게 대처하지 않는 문제를 해결하기 위해 다음 네 가지 주요 원칙을 제안하고 있다.
• 비난 금지 조항 폐지 : 기업은 직원이 위험 관련 우려에 대한 비방 또는 비판하는 발언을 금지하는 계약을 체결하지 않으며, 위험 관련 비판을 이유로 경제적 불이익을 주지 않아야 한다.
• 익명 고발 시스템 마련 : 기업은 전/현직 직원이 기업 이사회, 규제 기관, 또는 관련 지식을 갖춘 독립된 전문가 조직에 위험을 익명으로 제기할 수 있는 절차를 마련해야 한다.
• 공개 비판 권리 보장 : 기업은 개방적인 비판 문화를 조성하고, 기술적 위험이 영업 비밀 및 기타 지적 재산권과 충돌하지 않는 한, 전/현직 직원들은 대중과 정부 기관, 기업 이사회, 독립된 전문가 조직에 이를 알릴 수 있는 권리를 보장받아야 한다.
• 보복 금지 : 우려 사항에 대한 적절한 절차가 마련되면 해당 절차를 통해 제기되어야 하며, 절차가 존재하지 않는다면 대중에게 보고할 자유를 유지할 수 있어야 한다. 기업은 내부 절차가 실패할 경우, 기밀 정보를 공익을 위해 외부에 공개한 직원에게 불이익을 주지 않아야 한다.
제시된 원칙들은 AI 기술의 윤리적 발전을 위해 필수적인 요소로, 기업의 투명성과 책임성을 높이는 데 중요한 역할을 하도록 기준이 된다. 이와 같은 사항들을 고려하여 비춰보건대 AI는 창작자의 지원 도구로 활용될 수 있지만, 동시에 윤리와 권리의 차원에서 창의성과 독창성의 가치가 약화 되도록 하는 위험도 포함하고 있기에 AI의 사용 이전에 다음의 내용을 염두 할 필요가 있다.
먼저 AI가 콘텐츠를 생성하는 과정에서, 단순히 기존 데이터를 활용해 작품을 만들어내는 것은 진정한 창작의 의미를 훼손할 수 있다. AI가 창작자의 아이디어를 대체하지 않고 보완하는 방식으로 활용되도록 윤리적 기준을 마련하는 것이 중요한 이유다. 즉 AI는 ‘사용’이 아닌 ‘활용’이 되어야 하며, 인간이 기획과 의도를 도출하는 과정에서 AI의 보조, 즉 보완과 개선의 측면에서 컨설팅을 받는다는 개념으로 본다. 이때 우리는 AI가 아이디어를 제안하거나 반복 작업을 자동화함으로써 창작의 시간을 확보하는 데 도움을 받을 수 있으며 스토리보드 작성, 상황의 구성, 배경 이미지 생성, 각색 등에서 AI를 활용해 작업 효율성을 극대화할 수 있지만, 이러한 기술의 의존도를 높여 작가의 고유한 의도를 가리는 것을 경계해야 한다. 또한 제작사의 경우 무분별한 AI의 남용으로 생성된 콘텐츠의 품질이 낮아질 가능성도 존재한다. 이는 단순히 시각적 결과물의 수준이 형편없다기보다는, 제작에 있어 변별성 없이 일관된 스타일의 작품들이 범람하거나 주제나 메시지의 고민보다는 시각적 자극이나 빠른 양산에 목적을 두게 되는 현상을 의미한다. 웹툰 산업은 AI의 의존적 활용으로 인해 작품의 질적 저하를 초래하지 않도록 품질 기준을 마련하고 이를 관리할 필요가 있다.
동시에 AI의 사용성을 극대화하기 위해서는 AI와 창작자의 관계를 단순한 도구와 사용자의 수준을 넘어서, 협업 모델로 발전시켜야 한다. AI의 포지션을 어디에 두느냐에 따라 창작자의 상상력을 돕는 파트너로 기능할 수 있으며, 이를 통해 창작자는 더 풍부하고 다양한 작품을 만들어낼 수 있는 조력자를 얻는 셈이다. 그러나 이는 어디까지나 기술 남용과 자동화가 창작의 본질을 훼손하지 않도록 균형을 유지하는 것을 전제로 한다. 이는 AI를 활용한 창작의 과정에서 발생 되는 결과에 대한 저작권의 권리 여부와 판단에도 주요한 영향을 끼치게 된다.
결론적으로, 창작 분야에서 AI와 인간의 협업은 기회를 제공하는 동시에 윤리적, 법적 과제를 수반한다. 이를 위해 AI의 발전이 창작의 본질을 강화할 수 있도록 윤리적 기준과 법적 장치를 마련하며, 창작자가 기술 발전에 적극적으로 적응하는 것이 중요하다. 말하자면 창작의 본질과 가치, 윤리와 법리 그리고 권리에 기반하여 창작자는 AI가 단순한 대체재가 아니라 창조적 확장의 도구가 되도록 역할을 해야 한다.
2. AGI(Artificial General Intelligence, 범용 인공지능)
AI의 진화는 멈추지 않고 있으며 시간이 지남에 따라 현재의 AI는 AGI 단계로 넘어가게 될 것으로 예상한다. AGI(Artificial General Intelligence)는 인간과 유사한 수준의 종합적 지능을 갖춘 인공지능을 의미하며 ‘인공일반지능’이라고 지칭하기도 한다. AGI는 특정 작업에 국한되지 않고, 다양한 문제를 자율적으로 해결하며 새로운 상황에 빠르게 적응할 수 있는 능력을 지녔다고 본다. 이는 현재 사용되고 있는 ‘좁은 인공지능(ANI, Artificial Narrow Intelligence)’과 대비되는 개념으로, 특정 작업이나 문제에 특화된 AI가 아닌, 다양한 상황에서 인간과 같은 수준의 지능을 보여주는 기술이다. 2024년 3월 엔비디아의 개발자 연례행사인 ‘GTC (GPU Technology Conference) 2024’에서 CEO인 젠슨 황은 ‘인공일반지능의 시대’가 5년 남았다고 공식적으로 언급하며 장담을 했다. 그가 말하는 AGI는 단순한 기계적 학습을 넘어서 ‘인간의 지능을 전방위적으로 모방’하고자 하는 목표를 가지고 있으며, 복잡한 문제 해결부터 창의적 작업에 이르기까지 인간과 유사한 수준의 이해와 처리 능력을 발휘할 수 있는 시스템이라 설명한다.
AGI의 주요 특징과 작동 방식을 살펴 보면 다음과 같다.
1) 범용적 문제 해결 능력
AGI는 한 가지 작업에만 국한되지 않고, 인간처럼 다양한 분야에서 문제를 해결할 수 있는 능력을 가진다. 예를 들어, 현재의 AI는 특정 작업(작문, 이미지 생성, 코딩 등)에 특화되어 있지만, AGI는 이러한 작업뿐만 아니라 완전히 새로운 상황에도 자율적으로 적응하고 해결 방법을 찾을 수 있다.
2) 자기 학습(Self-Learning)
AGI는 인간처럼 자기 주도적으로 학습할 수 있는 능력을 가지고 있다. 새로운 정보와 경험을 바탕으로 지식을 확장하며, 기존에 학습한 지식을 바탕으로 더 나은 결정을 내릴 수 있다. 이는 단순한 패턴 인식이나 데이터 기반 학습을 넘어, 창의적 문제 해결과 같은 고차원적 사고를 포함한다.
3) 맥락 인식과 창의성
AGI는 단순한 지식의 습득을 넘어, 상황의 맥락을 이해하고 창의적으로 문제를 해결할 수 있다. 예를 들어, 한 분야에서 얻은 지식을 전혀 다른 분야에 응용할 수 있는 융합적 사고 능력을 갖추는 것을 목표로 한다. 이는 인간의 직관적 사고와 유사한 능력이다.
4) 자율성 및 의사결정 능력
AGI는 인간의 감독 없이도 스스로 의사결정을 내릴 수 있다. 인간의 개입 없이도 새로운 상황에 대한 판단과 행동을 수행할 수 있기 때문에, 특정한 프로그래밍 없이도 다양한 환경에서 적응해나갈 수 있다.
구분 | 인공일반지능(AGI) | 특공목적인공지능(Narrow AI) |
정의 | 인간의 수준과 유사한 지능 | 한정된 작업과 분야에서 특화된 지능 |
능력 | 학습, 이해, 추론, 문제 등 인간 대부분의 지능을 모방 | 특정 작업에 최적화된 기능 수행 |
적용 범위 | 다양한 분야에 제한 없이 폭넓게 적용 | 매우 제한된 범위의 작업과 분야에만 적용 |
자율성 | 인간과 유사한 수준의 자율적 의사 결정 | 사전에 정해진 규칙과 데이터에 기반한 의사 위주로 결정 |
학습 능력 | 학습된 데이터를 새로운 상황에 적용 | 대량의 데이터와 특화된 학습의 최적화 |
창의성 | 문제 해결과 작업에 있어 창의적 수행이 가능한 잠재력 | 주어진 작업과 문제 해결 위주로 창의적 수행은 제한적 |
사회 윤리적 영향 | 인간 사회 전반에 광범위한 영향 | 특정 분야 범위에 걸친 영향 |
AGI의 상용화는 예술과 창작 분야에 혁신적인 변화를 가져오지만, 동시에 복잡한 갈등과 규제 문제를 초래할 가능성이 크다. 인공지능이 AGI의 수준에 이르면 단순히 도구적 차원을 넘어, 창작의 의미와 본질, 그리고 창작자의 정체성까지도 흔드는 중요한 문제로 이어질 가능성이 제기되기 때문이다. 작품은 단순한 산물이 아니라 창작자의 정체성과 감정의 표현으로 여겨진다. 그러나 AGI가 음악, 그림, 문학, 웹툰과 같은 창작물을 인간과 유사한 수준으로 생산할 수 있게 되면, 인간과 AGI 사이의 창작 권위에 대한 갈등이 발생할 수 있다. 예를 들어, AGI가 쓴 소설이나 AI가 그린 그림이 예술적 가치를 인정받고 상을 수상하게 된다면, 창작자는 자신의 고유한 역할과 권위를 위협받는 것으로 받아들이게 된다. 우리가 창작자의 작품을 이해할 때는 그 창작자의 경험과 의도가 작품에 반영되었음을 필수 전제로 하는데, AGI의 창작물에 대해 동일한 수준의 의미와 권위를 부여하는 것이 가능한지는 의문이다. 이러한 갈등은 창작과정에 대한 해석의 문제로 이어지고 예술 작품의 의미와 가치가 AI에 의해 생산된 결과물에도 적용될 수 있는지에 대한 사회적 논란을 일으킨다. 따라서 이와 같은 문제는 윤리적으로 저작권 보호와 창작자의 권리 보장이라는 측면에서도 중요하게 살펴져야 한다.
AGI의 상용화는 혁신적인 측면에서 창작 분야에 새로운 기회와 도전을 제공할 수도 있다. 창작자에게 다채로운 형식과 아이디어를 탐구할 기회를 제공하며, 창작의 범위를 확장하는 데 기여할 수도 있다. 특히, 웹툰과 같은 시각 예술 분야에서는 다양한 시각적 스타일과 형식을 제안하여 작품의 다양성을 높이는 데 도움이 될 거라는 예측도 있다. 그러나 이러한 기회와 함께 창작자의 역할 축소와 독창성 약화라는 부작용이 뒤따를 수 있음을 안다. AGI의 남용이 작품의 질을 저하시킬 가능성을 경계하며, 창작자는 AI와 협력하는 과정에서 자신의 예술적 정체성을 유지하는 것이 중요한 이유다. 동시에 창작 분야에 미치는 영향을 효과적으로 관리하기 위한 법적·윤리적 규제와 가이드라인을 제시하고, 단계에 따른 보고 체계와 투명한 사용 절차가 도입되어야 한다.
1. 윤리와 법리 그리고 권리
최근 인공지능(AI) 기술의 급속한 발전은 사회에 혁신적인 변화를 가져왔지만, 이와 동시에 예상치 못한 위험과 윤리적 문제를 야기할 수 있는 가능성도 공존한다. 이러한 상황을 경계하기 위해 전·현직 OpenAI와 Google DeepMind 연구자들은 "첨단 AI에 대한 경고 권리(Right to Warn)"라는 성명서를 발표하기도 했다. 이 성명서의 배경에는 AI 기업들이 상업적 이익에 치중해 안전 문제를 경시하고 있다는 비판이 깔려 있으며, AI 분야의 저명한 학자들인 요슈아 벤지오, 제프리 힌턴, 스튜어트 러셀 등도 이를 지지했다. 내용을 살펴보면 AI 기술 발전 과정에서 내부고발자의 권리 보장과 더불어 투명성과 책임성을 강조하고 있는데, 다가올 AI 시대에 대한 다각적인 시각과 접근 방식에 있어 한 번쯤은 알아두면 도움이 된다. 공동 성명에 참여한 13명은 ‘AI 기술이 인류에 대해 전례 없는 혜택을 제공할 수 있다고 얘기하면서도 동시에 허위 정보의 확산, AI 체계의 통제력 상실, 불평등 심화 등의 심각한 위험을 경계해야 한다’는 메시지를 전했다.
성명서는 AI 기업들이 위험에 대해 투명하게 대처하지 않는 문제를 해결하기 위해 다음 네 가지 주요 원칙을 제안하고 있다.
• 비난 금지 조항 폐지 : 기업은 직원이 위험 관련 우려에 대한 비방 또는 비판하는 발언을 금지하는 계약을 체결하지 않으며, 위험 관련 비판을 이유로 경제적 불이익을 주지 않아야 한다.
• 익명 고발 시스템 마련 : 기업은 전/현직 직원이 기업 이사회, 규제 기관, 또는 관련 지식을 갖춘 독립된 전문가 조직에 위험을 익명으로 제기할 수 있는 절차를 마련해야 한다.
• 공개 비판 권리 보장 : 기업은 개방적인 비판 문화를 조성하고, 기술적 위험이 영업 비밀 및 기타 지적 재산권과 충돌하지 않는 한, 전/현직 직원들은 대중과 정부 기관, 기업 이사회, 독립된 전문가 조직에 이를 알릴 수 있는 권리를 보장받아야 한다.
• 보복 금지 : 우려 사항에 대한 적절한 절차가 마련되면 해당 절차를 통해 제기되어야 하며, 절차가 존재하지 않는다면 대중에게 보고할 자유를 유지할 수 있어야 한다. 기업은 내부 절차가 실패할 경우, 기밀 정보를 공익을 위해 외부에 공개한 직원에게 불이익을 주지 않아야 한다.
제시된 원칙들은 AI 기술의 윤리적 발전을 위해 필수적인 요소로, 기업의 투명성과 책임성을 높이는 데 중요한 역할을 하도록 기준이 된다. 이와 같은 사항들을 고려하여 비춰보건대 AI는 창작자의 지원 도구로 활용될 수 있지만, 동시에 윤리와 권리의 차원에서 창의성과 독창성의 가치가 약화 되도록 하는 위험도 포함하고 있기에 AI의 사용 이전에 다음의 내용을 염두 할 필요가 있다.
먼저 AI가 콘텐츠를 생성하는 과정에서, 단순히 기존 데이터를 활용해 작품을 만들어내는 것은 진정한 창작의 의미를 훼손할 수 있다. AI가 창작자의 아이디어를 대체하지 않고 보완하는 방식으로 활용되도록 윤리적 기준을 마련하는 것이 중요한 이유다. 즉 AI는 ‘사용’이 아닌 ‘활용’이 되어야 하며, 인간이 기획과 의도를 도출하는 과정에서 AI의 보조, 즉 보완과 개선의 측면에서 컨설팅을 받는다는 개념으로 본다. 이때 우리는 AI가 아이디어를 제안하거나 반복 작업을 자동화함으로써 창작의 시간을 확보하는 데 도움을 받을 수 있으며 스토리보드 작성, 상황의 구성, 배경 이미지 생성, 각색 등에서 AI를 활용해 작업 효율성을 극대화할 수 있지만, 이러한 기술의 의존도를 높여 작가의 고유한 의도를 가리는 것을 경계해야 한다. 또한 제작사의 경우 무분별한 AI의 남용으로 생성된 콘텐츠의 품질이 낮아질 가능성도 존재한다. 이는 단순히 시각적 결과물의 수준이 형편없다기보다는, 제작에 있어 변별성 없이 일관된 스타일의 작품들이 범람하거나 주제나 메시지의 고민보다는 시각적 자극이나 빠른 양산에 목적을 두게 되는 현상을 의미한다. 웹툰 산업은 AI의 의존적 활용으로 인해 작품의 질적 저하를 초래하지 않도록 품질 기준을 마련하고 이를 관리할 필요가 있다.
동시에 AI의 사용성을 극대화하기 위해서는 AI와 창작자의 관계를 단순한 도구와 사용자의 수준을 넘어서, 협업 모델로 발전시켜야 한다. AI의 포지션을 어디에 두느냐에 따라 창작자의 상상력을 돕는 파트너로 기능할 수 있으며, 이를 통해 창작자는 더 풍부하고 다양한 작품을 만들어낼 수 있는 조력자를 얻는 셈이다. 그러나 이는 어디까지나 기술 남용과 자동화가 창작의 본질을 훼손하지 않도록 균형을 유지하는 것을 전제로 한다. 이는 AI를 활용한 창작의 과정에서 발생 되는 결과에 대한 저작권의 권리 여부와 판단에도 주요한 영향을 끼치게 된다.
결론적으로, 창작 분야에서 AI와 인간의 협업은 기회를 제공하는 동시에 윤리적, 법적 과제를 수반한다. 이를 위해 AI의 발전이 창작의 본질을 강화할 수 있도록 윤리적 기준과 법적 장치를 마련하며, 창작자가 기술 발전에 적극적으로 적응하는 것이 중요하다. 말하자면 창작의 본질과 가치, 윤리와 법리 그리고 권리에 기반하여 창작자는 AI가 단순한 대체재가 아니라 창조적 확장의 도구가 되도록 역할을 해야 한다.
2. AGI(Artificial General Intelligence, 범용 인공지능)
AI의 진화는 멈추지 않고 있으며 시간이 지남에 따라 현재의 AI는 AGI 단계로 넘어가게 될 것으로 예상한다. AGI(Artificial General Intelligence)는 인간과 유사한 수준의 종합적 지능을 갖춘 인공지능을 의미하며 ‘인공일반지능’이라고 지칭하기도 한다. AGI는 특정 작업에 국한되지 않고, 다양한 문제를 자율적으로 해결하며 새로운 상황에 빠르게 적응할 수 있는 능력을 지녔다고 본다. 이는 현재 사용되고 있는 ‘좁은 인공지능(ANI, Artificial Narrow Intelligence)’과 대비되는 개념으로, 특정 작업이나 문제에 특화된 AI가 아닌, 다양한 상황에서 인간과 같은 수준의 지능을 보여주는 기술이다. 2024년 3월 엔비디아의 개발자 연례행사인 ‘GTC (GPU Technology Conference) 2024’에서 CEO인 젠슨 황은 ‘인공일반지능의 시대’가 5년 남았다고 공식적으로 언급하며 장담을 했다. 그가 말하는 AGI는 단순한 기계적 학습을 넘어서 ‘인간의 지능을 전방위적으로 모방’하고자 하는 목표를 가지고 있으며, 복잡한 문제 해결부터 창의적 작업에 이르기까지 인간과 유사한 수준의 이해와 처리 능력을 발휘할 수 있는 시스템이라 설명한다.
AGI의 주요 특징과 작동 방식을 살펴 보면 다음과 같다.
1) 범용적 문제 해결 능력
AGI는 한 가지 작업에만 국한되지 않고, 인간처럼 다양한 분야에서 문제를 해결할 수 있는 능력을 가진다. 예를 들어, 현재의 AI는 특정 작업(작문, 이미지 생성, 코딩 등)에 특화되어 있지만, AGI는 이러한 작업뿐만 아니라 완전히 새로운 상황에도 자율적으로 적응하고 해결 방법을 찾을 수 있다.
2) 자기 학습(Self-Learning)
AGI는 인간처럼 자기 주도적으로 학습할 수 있는 능력을 가지고 있다. 새로운 정보와 경험을 바탕으로 지식을 확장하며, 기존에 학습한 지식을 바탕으로 더 나은 결정을 내릴 수 있다. 이는 단순한 패턴 인식이나 데이터 기반 학습을 넘어, 창의적 문제 해결과 같은 고차원적 사고를 포함한다.
3) 맥락 인식과 창의성
AGI는 단순한 지식의 습득을 넘어, 상황의 맥락을 이해하고 창의적으로 문제를 해결할 수 있다. 예를 들어, 한 분야에서 얻은 지식을 전혀 다른 분야에 응용할 수 있는 융합적 사고 능력을 갖추는 것을 목표로 한다. 이는 인간의 직관적 사고와 유사한 능력이다.
4) 자율성 및 의사결정 능력
AGI는 인간의 감독 없이도 스스로 의사결정을 내릴 수 있다. 인간의 개입 없이도 새로운 상황에 대한 판단과 행동을 수행할 수 있기 때문에, 특정한 프로그래밍 없이도 다양한 환경에서 적응해나갈 수 있다.
구분
인공일반지능(AGI)
특공목적인공지능(Narrow AI)
정의
인간의 수준과 유사한 지능
한정된 작업과 분야에서 특화된 지능
능력
학습, 이해, 추론, 문제 등 인간 대부분의 지능을 모방
특정 작업에 최적화된 기능 수행
적용 범위
다양한 분야에 제한 없이 폭넓게 적용
매우 제한된 범위의 작업과 분야에만 적용
자율성
인간과 유사한 수준의 자율적 의사 결정
사전에 정해진 규칙과 데이터에 기반한 의사 위주로 결정
학습 능력
학습된 데이터를 새로운 상황에 적용
대량의 데이터와 특화된 학습의 최적화
창의성
문제 해결과 작업에 있어 창의적 수행이 가능한 잠재력
주어진 작업과 문제 해결 위주로 창의적 수행은 제한적
사회 윤리적 영향
인간 사회 전반에 광범위한 영향
특정 분야 범위에 걸친 영향
AGI의 상용화는 예술과 창작 분야에 혁신적인 변화를 가져오지만, 동시에 복잡한 갈등과 규제 문제를 초래할 가능성이 크다. 인공지능이 AGI의 수준에 이르면 단순히 도구적 차원을 넘어, 창작의 의미와 본질, 그리고 창작자의 정체성까지도 흔드는 중요한 문제로 이어질 가능성이 제기되기 때문이다. 작품은 단순한 산물이 아니라 창작자의 정체성과 감정의 표현으로 여겨진다. 그러나 AGI가 음악, 그림, 문학, 웹툰과 같은 창작물을 인간과 유사한 수준으로 생산할 수 있게 되면, 인간과 AGI 사이의 창작 권위에 대한 갈등이 발생할 수 있다. 예를 들어, AGI가 쓴 소설이나 AI가 그린 그림이 예술적 가치를 인정받고 상을 수상하게 된다면, 창작자는 자신의 고유한 역할과 권위를 위협받는 것으로 받아들이게 된다. 우리가 창작자의 작품을 이해할 때는 그 창작자의 경험과 의도가 작품에 반영되었음을 필수 전제로 하는데, AGI의 창작물에 대해 동일한 수준의 의미와 권위를 부여하는 것이 가능한지는 의문이다. 이러한 갈등은 창작과정에 대한 해석의 문제로 이어지고 예술 작품의 의미와 가치가 AI에 의해 생산된 결과물에도 적용될 수 있는지에 대한 사회적 논란을 일으킨다. 따라서 이와 같은 문제는 윤리적으로 저작권 보호와 창작자의 권리 보장이라는 측면에서도 중요하게 살펴져야 한다.
AGI의 상용화는 혁신적인 측면에서 창작 분야에 새로운 기회와 도전을 제공할 수도 있다. 창작자에게 다채로운 형식과 아이디어를 탐구할 기회를 제공하며, 창작의 범위를 확장하는 데 기여할 수도 있다. 특히, 웹툰과 같은 시각 예술 분야에서는 다양한 시각적 스타일과 형식을 제안하여 작품의 다양성을 높이는 데 도움이 될 거라는 예측도 있다. 그러나 이러한 기회와 함께 창작자의 역할 축소와 독창성 약화라는 부작용이 뒤따를 수 있음을 안다. AGI의 남용이 작품의 질을 저하시킬 가능성을 경계하며, 창작자는 AI와 협력하는 과정에서 자신의 예술적 정체성을 유지하는 것이 중요한 이유다. 동시에 창작 분야에 미치는 영향을 효과적으로 관리하기 위한 법적·윤리적 규제와 가이드라인을 제시하고, 단계에 따른 보고 체계와 투명한 사용 절차가 도입되어야 한다.