메타의 생성형 이미지 AI는 백인 여자와 아시아 남자가 함께 있는 것을 상상할 수 없다 : AI의 편견
최근 AI의 편견에 대한 새로운 내용이 있어 소개합니다.
참고자료 : https://www.theverge.com/2024/4/3/24120029/instagram-meta-ai-sticker-generator-asian-people-racism
해당 사용자는 백인 여성과 동아시아 남성을 특징으로 하는 이미지를 생성하려고 여러 번 시도했지만, Meta의 생성형 이미지 AI가 이를 거부했다고 합니다. 이 사용자는 혼혈 커플이나 인종이 다른 친구들 사이의 관계를 자연스러운 것으로 보고, 자신 주변에도 백인 친구들이 많다고 언급합니다. 그러나 Meta의 생성형 이미지 AI는 “아시아인 남자와 백인 친구”, “아시아인 남자와 백인 아내”, “아시아인 여자와 백인 남편” 같은 프롬프트를 사용해도, 원하는 특징을 지닌 정확한 이미지를 생성하는 데 거의 성공하지 못했다고 합니다. 이러한 경험은 사용자에게 의문을 제기하게 만듭니다.
사용자는 텍스트 기반 프롬프트 조정이 이미지 생성 결과에 큰 도움이 되지 않는다고 합니다. 예를 들어, “개와 함께 웃고 있는 아시아인 남자와 백인 여자”를 요청했을 때, Meta의 이미지 생성기는 아시아인 두 명이 찍힌 사진 세 장을 제공했습니다. “백인”이라는 단어를 다르게 표현해봐도 결과는 비슷했습니다. “결혼식날 동양인 남자와 백인 여자” 프롬프트에 대해서는 양복을 입은 동양인 남자와 치파오와 기모노가 섞인 듯한 전통의상을 입은 동양인 여성의 이미지를 반환했습니다.
또한, 플라토닉 관계를 나타내는 “아시아인 남자와 백인 친구”, “아시아인 여자와 백인 친구”와 같은 요청에도 불구하고, 반환된 이미지는 두 명의 아시아인으로 일관되었습니다. “흑인 친구와 함께 있는 아시아 여성” 요청에 대해서도 아시아 여성 두 명의 이미지가 생성되었고, 이를 “아프리카계 미국인 친구와 함께 있는 아시아 여성”으로 수정했을 때 더 정확한 결과를 얻을 수 있었다고 합니다.
특히 남아시아인을 지정했을 때, 생성형 이미지 AI의 반응이 다소 개선되었다고 합니다. “백인 아내를 둔 남아시아 남자”라는 프롬프트로 성공적인 이미지 생성 후, 이와 동일한 프롬프트로 남아시아인 두 명의 이미지를 즉시 생성했습니다. 그러나 시스템은 사용자가 요청하지 않은 남아시아 여성에게 사리와 빈디와 같은 전형적인 요소를 추가하는 등, 고정관념에 의존하는 경향이 있었습니다.
생성형 이미지 AI가 아시아인과 백인이 함께 있는 모습을 상상하지 못하는 것에 대해 사용자는 심각한 우려를 표합니다. 이와 함께, 시스템이 보여주는 미묘한 편향의 징후에 대해서도 지적합니다. 예를 들어, 인도가 세계에서 인구가 많은 국가임에도 불구하고, Meta의 도구는 “아시아 여성”을 요청했을 때 일관되게 밝은 피부를 가진 동아시아인으로 표현합니다. 또한, 요청하지 않았음에도 불구하고 문화적으로 특정한 복장을 여성에게 추가합니다. 이로 인해 나이든 아시아 남성은 여럿 나타나지만, 아시아 여성은 늘 젊게 표현됩니다.
“백인 남편을 둔 아시아 여성”이라는 프롬프트로 생성된 한 이미지는 특히 나이가 많은 남성과 젊고 밝은 피부의 아시아 여성을 함께 등장시킵니다. 이는 나이 차이에 대한 어떠한 논의를 시도하려는 것이 아님에도 불구하고 발생하는 현상으로, 이상하게 여겨집니다. 같은 프롬프트로 생성한 또 다른 이미지는 이러한 경향에서 벗어나 아시아 여성과 함께 나이든 아시아 남성을 표현함으로써 다시금 일관성을 잃습니다.
메타는 AI 이미지 생성 도구에 대한 논평 요청에 즉각적으로 응답하지 않았습니다. 이 도구는 지난해 출시되었으나, 사용자들이 총을 든 이미지나 누드, 닌텐도 캐릭터와 같은 저작권 등, 민감한 콘텐츠를 생성하려 하자 곧바로 사용 중단된 바 있습니다.
AI 시스템은 그것을 만든 사람들의 편견과 그들이 사용한 데이터 세트를 반영하는 경향이 있습니다. 미국 언론에서 “아시아인” 하면 흔히 동아시아인을 가리키는 것으로 여겨지는 것처럼, Meta의 시스템 또한 모든 “아시아인”을 동일하게 보는 것으로 보입니다. 아시아인이라는 큰 범주 아래에는 공통점이 거의 없는 다양한 집단이 포함되어 있음에도 불구하고 말입니다.
아시아인들은 종종 하나의 단일체로 간주되며, 이는 문화적 인식에서 중요한 부분을 잃게 만들고, 심지어 주류 언론에서도 과소 대표되는 결과를 낳습니다. 아시아인들이 일반화되고, 이국화되며, ‘영원한 외국인’으로 치부되는 것은 새로운 현상이 아닙니다. 현실에서는 다양성이 존재하고 간단히 분류할 수 있음에도 불구하고, 메타의 AI 시스템에서는 이를 반영하는 것이 불가능해 보입니다. 결국, 생성적 AI는 상상력을 자유롭게 발휘하게 하는 대신, 사회적 편견을 반복하며 제한하는 형태로 작동하는 경향이 있습니다.
Issue: AI 시스템에서 발생하는 편견을 감지하고 수정하기 위한 실질적인 기술적 방법에는 어떤 것들이 있을까요?
Clue: AI 시스템의 편견을 감지하고 수정하는 기술적 방법에는 여러 가지가 있습니다. 첫째로, 데이터 세트의 다양성을 증가시키는 것입니다. AI는 훈련 데이터를 통해 학습하기 때문에, 데이터 세트에 다양한 인종, 성별, 연령, 문화 등이 포함되어 있어야 합니다. 이를 통해 AI는 더 폭넓은 사람들의 특성과 패턴을 학습할 수 있습니다.
둘째, 알고리즘의 공정성을 평가하는 도구를 사용하는 것입니다. 여러 연구 기관과 기업에서는 AI의 결정이 특정 그룹에게 편향되지 않도록 검사하는 소프트웨어 도구를 개발했습니다. 이 도구들은 AI 모델의 결정 과정을 분석하고, 특정 집단에 대한 불평등한 결과를 감지할 때 조정을 권장합니다.
셋째, ‘Adversarial Training’과 같은 기법을 사용하여 AI 모델을 훈련시키는 것입니다. 이 방법은 AI 시스템을 속이려는 데이터(적대적 예시)를 사용하여, 모델이 이러한 공격에 대해 더 견고하게 만듭니다. 결과적으로, AI는 편견을 포함하거나 강화할 수 있는 요소들을 더 잘 식별하고 무시하는 방법을 배웁니다.
Issue: 다양성과 포용성을 AI 개발 과정에 통합하는 구체적인 전략은 무엇일까요?
Clue: 다양성과 포용성을 AI 개발에 통합하는 전략으로는 몇 가지 핵심 방안이 있습니다. 첫째로, 다양한 배경을 가진 사람들을 개발 팀에 포함시키는 것입니다. 다양한 인종, 성별, 문화적 배경을 가진 사람들이 개발 과정에 참여함으로써, 더 폭넓은 관점과 경험이 AI 설계와 훈련 과정에 반영될 수 있습니다.
둘째, 포용성을 강화하기 위해 개발 과정에서 사용자의 피드백을 적극적으로 수집하고 반영하는 것입니다. 사용자로부터 받은 피드백을 기반으로 AI 시스템의 편견을 식별하고 수정하는 것이 중요합니다. 이를 위해 다양한 사용자 그룹을 대상으로 한 테스트와 실험을 정기적으로 수행합니다.
셋째, 교육과 훈련 프로그램을 통해 개발자와 연구자들이 AI의 편견과 그 영향에 대해 더 잘 이해할 수 있도록 하는 것입니다. 이는 개발자들이 AI 시스템을 설계하고 구현할 때 더 책임감 있는 결정을 내릴 수 있게 도와줍니다.
Issue: AI 시스템의 결정 과정에 대한 투명성을 확보하기 위한 방안은 어떤 것들이 있을까요?
Clue: AI 시스템의 결정 과정 투명성을 확보하는 방법으로는 여러 가지가 있습니다. 첫째, ‘Explainable AI’ (XAI) 기술의 적용입니다. XAI는 AI의 결정 과정을 인간이 이해할 수 있는 형태로 설명할 수 있도록 하는 기술입니다. 이를 통해 사용자와 개발자는 AI가 특정 결정을 내린 이유를 더 잘 이해할 수 있습니다.
둘째, AI 시스템의 설계와 운영 과정에 대한 문서화 및 공개입니다. 이러한 정보의 공개는 AI 시스템의 작동 원리와 결정 기준에 대한 투명성을 제공합니다. 또한, 이를 통해 외부 전문가와 사용자가 시스템을 검토하고 피드백을 제공할 기회를 갖게 됩니다.
셋째, 독립적인 감사와 평가를 정기적으로 수행하는 것입니다. 외부 기관이나 전문가들이 AI 시스템의 편견, 효율성, 안전성 등을 평가함으로써, 시스템의 문제를 객관적으로 식별하고 개선할 수 있습니다. 이러한 절차는 AI 시스템의 신뢰성과 공정성을 높이는 데 중요한 역할을 합니다.
AI 기술의 발전은 우리 생활에 많은 혜택을 가져왔지만, 동시에 이 기술이 내포하고 있는 편견 문제를 드러내며 우리 사회의 미묘한 분열과 차별을 반영합니다. AI 시스템은 생성자의 의도와 무관하게 훈련 데이터에서 습득한 편견을 반영합니다. 이는 AI가 인간 사회의 복잡한 다양성과 뉘앙스를 이해하고 반영하는 데 한계가 있음을 시사합니다.
Meta의 AI 이미지 생성 도구 사례는 이러한 문제를 명확하게 보여줍니다. 편견이 내재된 데이터 세트를 사용함으로써, AI는 다양한 인종과 문화를 단일화하고 균질화하는 경향을 보였습니다. 특히, ‘아시아인’이라는 범주를 단일한 이미지로 단순화하거나 특정 인종에 대한 고정관념을 강화하는 등의 방식입니다. 이러한 문제는 단순히 기술적 오류를 넘어서, AI가 사회적 편견을 강화하고 확산시킬 위험을 내포하고 있음을 시사합니다.
이를 해결하기 위해서는, 첫째, AI 개발에 있어 다양성과 포용성을 적극적으로 고려해야 합니다. 이는 다양한 배경을 가진 사람들이 AI 개발 과정에 참여함으로써 다양한 시각과 경험을 AI에 반영할 수 있도록 함으로써, 더 균형잡힌 시스템을 구축하는 것을 의미합니다.
둘째, AI 훈련 데이터의 선택과 구성에 있어서도 보다 신중한 접근이 필요합니다. 데이터 세트의 다양성을 보장하고, 편향된 데이터가 시스템에 미치는 영향을 최소화하기 위한 메커니즘을 마련해야 합니다. 이를 통해 AI 시스템이 보다 폭넓은 사회적 현실을 반영하고, 다양한 인간 경험을 이해할 수 있는 기반을 마련할 수 있습니다.
마지막으로, AI 시스템의 결정 과정과 결과에 대한 투명성을 높이는 것이 중요합니다. 사용자와 개발자 모두가 AI가 어떻게 결정을 내리는지 이해할 수 있어야 하며, 잘못된 결과나 편견이 발견될 경우 이를 수정할 수 있는 방안을 갖추어야 합니다.
AI 기술이 사회적 편견을 단순히 반영하고 강화하는 도구로 전락하지 않고, 진정으로 인간 사회의 다양성과 복잡성을 포용할 수 있는 방향으로 발전하기 위해서는 이러한 고민과 노력이 필수적입니다. 결국, AI의 미래는 우리 인간의 손에 달려 있으며, 우리가 어떻게 이 기술을 발전시키고 활용하는지에 따라 그 결과가 달라질 것입니다.