서론: AI가 AI를 학습시키는 시대
인공지능(AI) 기술은 놀라운 속도로 발전하고 있습니다. 특히 최근에는 AI가 자체적으로 데이터를 생성하고 학습하는 단계에 이르렀습니다. 이는 특히 GPT-3, BERT와 같은 대규모 언어 모델(LLM)에서 두드러지게 나타나고 있습니다. 이러한 발전은 AI 기술의 혁신적인 진보를 보여주지만, 동시에 새로운 문제점이 발생하기도 합니다.
최근 AI 연구 커뮤니티에서는 LLM이 더 이상 학습할 고품질 데이터가 부족해지고 있다는 우려의 목소리가 나오고 있습니다. 이는 AI가 생성한 데이터를 다시 AI 학습에 활용해야 할 필요성을 제기합니다. 이론적으로 이 방식은 효율적으로 보이지만, 실제로는 “모델 붕괴”라는 심각한 문제를 초래할 수 있습니다.
최근 네이처(Nature)에 발표된 논문 “재귀적으로 생성된 데이터로 학습하면 AI 모델이 붕괴됩니다”는 이 문제에 대해 심도 있게 다루고 있습니다. 이 글에서는 이 논문을 바탕으로 AI의 자가 학습 메커니즘과 모델 붕괴 현상에 대해 자세히 살펴보고, 이로 인해 발생하는 문제점과 해결 방안을 간단하게 알아보고자 합니다.

모델 붕괴 현상 소개
모델 붕괴란?
모델 붕괴는 AI 모델이 자가 생성한 데이터로 지속적으로 학습할 때 발생하는 성능 저하 현상을 말합니다. 이는 마치 복사본의 복사본을 반복해서 만들 때 품질이 저하되는 것과 유사합니다. 초기에는 미세한 오류로 시작되지만, 시간이 지남에 따라 이 오류들이 축적되면서 모델은 실제 데이터 분포에서 점점 더 벗어나게 됩니다.
예를 들어, 언어 모델이 처음에는 “고양이는 귀여운 동물입니다”와 같은 문장을 생성했다고 가정해 봅시다. 이 문장으로 다시 학습한 모델은 “고양이는 귀여운 동물 동물입니다”와 같이 약간 어색한 문장을 만들 수 있습니다. 이 과정이 반복되면 “고양이는 귀여운 귀여운 귀여운 동물입니다”와 같이 점점 더 비정상적인 문장을 생성하게 됩니다.
이러한 현상은 AI가 더 많은 데이터를 생성하고 학습할수록 심화됩니다. 결과적으로 모델은 원래 목표로 했던 데이터 분포를 제대로 반영하지 못하고, 오히려 왜곡된 데이터 분포를 학습하게 됩니다. 이는 AI 모델의 장기적인 성능과 안정성에 큰 영향을 미치며, AI 기술의 발전과 사용에 있어 중요한 문제로 부각되고 있습니다.
모델 붕괴가 발생하는 이유
모델 붕괴가 발생하는 주요 이유는 크게 두 가지로 나눌 수 있습니다.
첫째, 자가 생성된 데이터가 원래의 데이터 분포를 충분히 반영하지 못하기 때문입니다. AI 모델은 원본 데이터로부터 학습하여 특정 패턴을 인식하고 이를 기반으로 새로운 데이터를 생성합니다. 그러나 이 생성된 데이터는 필연적으로 원본 데이터와 차이가 있습니다. 예를 들어, 초기 모델이 “사과는 빨간색입니다”라는 문장을 학습했다면, 생성된 데이터에서는 “사과는 붉은색입니다”와 같이 약간 다른 표현이 나올 수 있습니다. 이런 작은 차이들이 누적되면서 원래의 데이터 분포에서 점점 멀어지게 됩니다.
둘째, AI 모델은 학습 과정에서 통계적 오류를 일으킬 가능성이 있습니다. 모델이 생성한 데이터는 통계적으로 원본 데이터와 동일하지 않으며, 이러한 통계적 근사 오류는 시간이 지남에 따라 모델의 성능을 저하시킬 수 있습니다. 예를 들어, 원본 데이터에서 “고양이”라는 단어가 100번 중 10번 등장했다면, 모델이 생성한 데이터에서는 이 비율이 12번이 될 수 있습니다. 이런 작은 차이가 누적되면 결국 모델의 출력이 현실과 크게 달라지게 됩니다.
결국, 모델 붕괴는 모델이 점점 더 왜곡된 데이터에 의존하게 되면서 발생하며, 이는 AI 모델의 신뢰성과 정확성을 심각하게 저해할 수 있습니다. 이는 마치 소문이 퍼질 때 원래의 이야기가 점점 왜곡되는 것과 유사한 현상입니다.

모델 붕괴의 메커니즘
통계적 근사 오류
통계적 근사 오류는 모델 붕괴의 주요 원인 중 하나로 지적되며, 모델이 생성한 데이터가 원본 데이터의 통계적 특성을 제대로 반영하지 못하는 경우에 발생합니다. 이 오류는 AI 모델이 생성하는 데이터가 원본 데이터의 분포를 왜곡하게 만들며, 결과적으로 모델의 성능 저하를 초래합니다.
예를 들어, 원본 데이터에서 “개”와 “고양이”라는 단어가 각각 1000번 중 100번씩 등장했다고 가정해 봅시다. 모델이 생성한 데이터에서는 “개”가 110번, “고양이”가 90번 등장할 수 있습니다. 이러한 작은 차이는 한 번의 학습에서는 큰 문제가 되지 않을 수 있지만, 여러 세대에 걸쳐 누적되면 결국 모델이 “개”에 대해 더 많이 이야기하고 “고양이”에 대해서는 덜 이야기하는 편향된 결과를 낳을 수 있습니다.
이러한 통계적 오류는 AI 모델이 생성하는 데이터가 시간이 지남에 따라 점점 더 원본 데이터와 멀어지게 만들고, 모델이 점점 더 부정확한 결과를 생성하도록 합니다. 이는 특히 대규모 데이터셋을 사용하는 AI 모델에서 두드러지게 나타나며, 모델의 장기적인 성능에 심각한 영향을 미칠 수 있습니다.
함수적 표현력 오류
함수적 표현력 오류는 AI 모델이 데이터의 복잡한 패턴을 충분히 표현하지 못하는 경우 발생합니다. 이는 특히 모델이 생성하는 데이터가 원본 데이터의 고차원적 패턴을 제대로 반영하지 못할 때 두드러집니다.
예를 들어, 원본 데이터에 “비가 오면 우산을 쓴다”와 같은 복잡한 인과관계가 포함되어 있다고 가정해 봅시다. 모델이 이러한 관계를 완벽하게 이해하지 못한다면, 생성된 데이터에서는 “비가 오면 모자를 쓴다”나 “우산을 쓰면 비가 온다”와 같은 부정확한 관계가 나타날 수 있습니다. 이러한 오류는 모델이 여러 세대에 걸쳐 학습을 반복할수록 더욱 심화될 수 있습니다.
이 오류는 AI 모델이 데이터를 학습하는 과정에서 일부 중요한 패턴을 놓치게 만들며, 이는 모델의 예측 능력에 부정적인 영향을 미칩니다. 결국, 모델은 원래 데이터 분포에서 벗어나 점점 더 비현실적인 데이터를 생성하게 됩니다. 이는 마치 전화게임에서 복잡한 이야기가 전달되는 과정에서 점점 더 단순화되고 왜곡되는 것과 유사합니다.
함수적 근사 오류
함수적 근사 오류는 AI 모델이 특정 함수 또는 패턴을 학습할 때 발생하는 오류로, 모델이 데이터의 본질적인 특성을 정확하게 근사하지 못하는 경우 발생합니다. 이는 특히 복잡한 데이터셋에서 더 자주 발생하며, 모델의 예측 정확도를 크게 떨어뜨릴 수 있습니다.
예를 들어, 원본 데이터에 “경제 성장률과 실업률은 역의 관계에 있다”와 같은 복잡한 경제 원리가 포함되어 있다고 가정해 봅시다. 모델이 이러한 관계를 정확히 학습하지 못하면, 생성된 데이터에서는 “경제 성장률과 실업률은 항상 같이 증가한다”와 같은 잘못된 패턴이 나타날 수 있습니다. 이러한 오류는 모델이 경제 데이터를 분석하거나 예측할 때 심각한 오류를 초래할 수 있습니다.
이러한 오류는 AI 모델이 데이터의 중요한 패턴을 이해하지 못하고, 그 결과 생성된 데이터가 실제 데이터와는 크게 다르게 나타날 수 있습니다. 이는 마치 복잡한 그림을 단순한 선으로만 표현하려고 할 때 발생하는 오류와 유사합니다. 이러한 근사 오류는 모델 붕괴의 중요한 요소로 작용하며, 모델의 성능을 심각하게 저해할 수 있습니다.
다양한 AI 모델에서의 모델 붕괴
언어 모델(LLM)에서의 모델 붕괴
대규모 언어 모델(LLM)에서는 모델 붕괴 현상이 특히 심각하게 나타납니다. LLM은 주로 텍스트 데이터를 생성하고 학습하는데, 자가 생성된 텍스트로 학습을 반복할 경우 모델이 점차적으로 텍스트의 품질을 잃어버리고, 결과적으로 비현실적이고 반복적인 구문을 생성하게 됩니다.
이러한 현상은 특히 GPT나 BERT와 같은 대규모 언어 모델에서 관찰됩니다. 연구 결과에 따르면, 모델이 자가 생성된 텍스트로 학습할수록 텍스트 생성의 다양성이 감소하고, 동일한 구문이 반복되는 문제가 발생합니다. 이는 모델 붕괴의 전형적인 예로, 텍스트 생성 품질이 점진적으로 저하됩니다.

기타 모델(VAE, GMM)에서의 모델 붕괴
VAE(Variational Autoencoder)와 GMM(Gaussian Mixture Model)과 같은 다른 AI 모델에서도 모델 붕괴 현상이 발생할 수 있습니다. VAE는 주로 이미지를 생성하는 데 사용되며, GMM은 데이터의 군집화를 위한 모델로 사용됩니다.
VAE의 경우, 모델 붕괴는 생성된 이미지의 품질 저하로 나타날 수 있습니다. 예를 들어, 초기에는 고양이의 사실적인 이미지를 생성하던 모델이 여러 세대의 자가 학습을 거치면서 점점 더 추상적이고 왜곡된 고양이 이미지를 생성하게 될 수 있습니다. 극단적인 경우, 모든 출력이 비슷한 모습의 흐릿한 얼룩으로 수렴할 수 있습니다.
GMM의 경우, 모델 붕괴는 데이터 군집화의 정확성 저하로 나타날 수 있습니다. 초기에는 명확하게 구분되던 데이터 군집들이 여러 세대의 자가 학습을 거치면서 점점 더 불분명해지고, 결국에는 모든 데이터 포인트가 하나의 큰 군집으로 뭉뚱그려질 수 있습니다.
이처럼 모델 붕괴 현상은 특정 모델에 국한되지 않으며, 다양한 AI 모델에서 공통적으로 발생할 수 있는 문제라고 합니다.
모델 붕괴의 실제 영향
텍스트 생성 품질 저하
모델 붕괴가 발생할 경우, AI 모델이 생성하는 텍스트의 품질이 현저히 저하될 수 있습니다. 자가 생성된 데이터로 학습을 반복할수록 모델은 원본 데이터 분포에서 벗어나고, 그 결과 생성되는 텍스트는 원본 데이터의 풍부한 표현력을 상실하게 됩니다.
예를 들어, 초기에는 “인공지능은 현대 사회의 다양한 분야에서 혁신을 이끌고 있습니다. 의료, 금융, 교육 등에서 AI의 활용이 늘어나고 있으며, 이는 효율성 향상과 새로운 가치 창출로 이어지고 있습니다.”와 같은 풍부하고 정보가 담긴 문장을 생성하던 모델이, 여러 세대의 자가 학습을 거치면서 “인공지능은 좋습니다. AI는 좋습니다. 인공지능은 유용합니다. AI는 유용합니다.”와 같이 단순하고 반복적인 문장을 생성하게 될 수 있습니다.
이로 인해 생성된 텍스트는 반복적이고 단조로워지며, 사용자가 기대하는 수준의 창의성과 다양성을 제공하지 못하게 됩니다. 이는 특히 텍스트 생성 AI 모델을 사용하는 콘텐츠 제작, 자동 번역, 대화형 AI 등의 애플리케이션에서 큰 문제로 작용할 수 있습니다. 사용자들은 점점 더 AI 생성 콘텐츠에 실망하게 되고, 이는 AI 기술에 대한 전반적인 신뢰도 하락으로 이어질 수 있습니다.
반복 문제와 다양성 손실
모델 붕괴는 텍스트 생성의 다양성을 저해하며, 결과적으로 반복적인 구문이 증가하는 현상을 초래합니다. 이는 AI 모델이 점점 더 동일한 패턴을 학습하게 되고, 새로운 데이터를 생성하는 대신 기존의 데이터를 반복적으로 생성하게 만들기 때문입니다.
예를 들어, 초기에는 다양한 문장 구조와 어휘를 사용하여 “아침에 일어나면 상쾌한 기분으로 하루를 시작합니다. 커피 한 잔을 마시며 일정을 확인하고, 가벼운 운동으로 몸을 깨웁니다.”와 같은 문장을 생성하던 모델이, 여러 세대의 자가 학습을 거치면서 “아침에 일어납니다. 커피를 마십니다. 운동을 합니다. 아침에 일어납니다. 커피를 마십니다. 운동을 합니다.”와 같이 단순하고 반복적인 문장을 생성하게 될 수 있습니다.
다양성 손실은 AI 모델의 창의적 능력을 제한하고, 사용자가 다양한 결과를 얻기 어려워지게 합니다. 이는 AI 기반 창작, 마케팅, 콘텐츠 생성 등 다양한 분야에서 큰 제약으로 작용할 수 있습니다. 예를 들어, AI를 사용한 자동 기사 작성 시스템에서 이러한 문제가 발생한다면, 모든 기사가 비슷한 구조와 표현을 가지게 되어 독자들의 흥미를 잃게 만들 수 있습니다.
더 나아가, 이러한 다양성 손실은 AI 시스템의 적응성과 유연성을 저하시킬 수 있습니다. 다양한 상황에 대응할 수 있는 능력이 줄어들면서, AI 시스템은 새로운 환경이나 예상치 못한 입력에 대해 적절히 대응하지 못할 수 있습니다. 이는 AI 시스템의 실용성과 신뢰성에 심각한 영향을 미칠 수 있습니다.
모델 붕괴 방지를 위한 제안(논문 기준)
원본 데이터 보존의 중요성
모델 붕괴를 방지하기 위해 가장 중요한 것은 원본 데이터에 대한 접근을 유지하는 것이라고 합니다. 원본 데이터는 AI 모델이 학습하는 데 있어 기준점 역할을 하며, 자가 생성된 데이터가 원본 데이터에서 벗어나지 않도록 도와줍니다.
예를 들어, 언어 모델을 학습시킬 때 각 학습 세대마다 원본 데이터의 일정 비율(예: 20%)을 포함시키는 방법을 고려할 수 있습니다. 이렇게 하면 모델이 완전히 자가 생성된 데이터에만 의존하지 않고, 지속적으로 원본 데이터의 특성을 유지할 수 있습니다.
연구에 따르면, 원본 데이터의 일부를 보존하고 이를 정기적으로 AI 모델에 재학습시키는 것이 모델 붕괴를 완화하는 데 효과적입니다. 이는 모델이 자가 생성된 데이터에 지나치게 의존하지 않도록 하며, 원본 데이터 분포를 계속 유지하도록 돕는다고 합니다.
더 나아가, 다양한 출처의 고품질 데이터를 지속적으로 수집하고 이를 학습 과정에 통합하는 것도 중요합니다. 이는 모델이 다양한 관점과 표현을 학습할 수 있게 해주며, 편향성을 줄이는 데도 도움이 됩니다.

AI 생성 콘텐츠 추적의 필요성
또한, AI가 생성한 콘텐츠를 추적하고 이를 구별할 수 있는 방법이 필요하다고 합니다. 이를 통해 자가 생성된 데이터가 학습 과정에서 원본 데이터와 혼동되지 않도록 할 수 있으며, 모델 붕괴를 예방하는 데 중요한 역할을 합니다.
예를 들어, 각 AI 생성 콘텐츠에 특정 메타데이터나 워터마크를 추가하는 방법을 고려할 수 있습니다. 이렇게 하면 향후 데이터 수집 과정에서 AI 생성 콘텐츠를 쉽게 식별하고 필요에 따라 제외하거나 별도로 처리할 수 있습니다.
이러한 추적 메커니즘은 AI 모델이 자가 생성된 데이터의 영향을 최소화하고, 원본 데이터의 품질을 유지할 수 있도록 도와줍니다. 또한, 이는 AI 생성 콘텐츠의 투명성을 높이고, 사용자들이 AI 생성 콘텐츠와 인간 생성 콘텐츠를 구별할 수 있게 해줍니다.
더 나아가, 이러한 추적 시스템은 AI 모델의 성능을 모니터링하고 평가하는 데에도 유용할 수 있습니다. 시간이 지남에 따라 AI 생성 콘텐츠의 품질 변화를 추적함으로써, 모델 붕괴의 징후를 조기에 감지하고 대응할 수 있습니다.
결론: AI 학습의 미래와 과제
AI 모델의 자가 학습은 그 자체로 혁신적이지만, 모델 붕괴라는 새로운 문제를 가져왔습니다. 이 문제를 해결하지 않는다면 AI 모델의 장기적인 성능과 신뢰성은 심각하게 저해될 수 있습니다. 따라서 원본 데이터 보존, AI 생성 콘텐츠 추적 등의 방안을 통해 모델 붕괴를 예방하는 것이 중요한 과제로 떠오르고 있습니다.
AI의 발전이 계속될수록, 인간이 생성한 데이터의 가치와 이를 활용하는 방법에 대한 고민이 더욱 필요해질 것입니다. 최근 미국 최대 커뮤니티 사이트인 레딧(Reddit)이 AI 서비스들과 데이터에 대한 협업을 추진하는 것도 이런 맥락에서 이해할 수 있습니다. 이는 단순히 데이터 제공의 차원을 넘어, AI 학습에 필요한 고품질의 인간 생성 데이터를 확보하고 AI 생성 콘텐츠와 구별하기 위한 전략적 움직임으로 볼 수 있습니다.
앞으로 생성형 AI 콘텐츠가 범람하는 시대에 모델 붕괴를 극복하고 AI의 잠재력을 최대한 발휘하기 위해서는 다양한 방향으로 연구와 노력이 필요하지 않을까 생각합니다.
AI models collapse when trained on recursively generated data(참고 논문)
https://www.nature.com/articles/s41586-024-07566-y