Article at a GlanceAI 기술이 사회적 편향을 확대 재생산하고 있다. 안면인식 시스템, 범죄 예측 알고리즘, 헬스케어 건강 위험 평가 등에서 인종과 성별 편향이 드러났으며 이는 사회의 불평등이 데이터와 알고리즘에 반영된 결과다. 이에 따라 IBM, 구글, 오픈AI 등은 편향을 줄이고 다양성을 반영하려는 노력을 이어가고 있다. 하지만 AI 편향은 단순히 위험 요소가 아니라 창의적 마케팅과 브랜드 차별화의 기회가 될 수 있다. 가령 소비재 브랜드 도브는 ‘더 코드’ 캠페인을 통해 AI의 미적 편향을 드러내면서도 ‘진정한 아름다움’의 기준에 질문을 던져 왔던 ‘리얼 뷰티’의 철학을 확장해 브랜드 가치를 제고했다. 이 같은 성공 사례는 다양성을 포용하고 편향을 선제적으로 극복하려는 AI 전략이 사회적 책임을 넘어 기업의 핵심 경쟁력이 될 수 있음을 보여준다.
오랫동안 미술사의 주인공은 서양인, 백인, 남성이었다. 반대로 동양인과 소수 민족, 흑인, 여성은 상대적으로 주목받지 못했다. 이런 문제의식을 바탕으로 미술계는 다양성의 가치를 포용하고 존중하기 위한 행보를 보이고 있다. 흑인 문화와 예술을 향한 관심도 이런 맥락에서 차츰 커지고 있다.
특히 현대미술 시장에서 주목받는 흑인 작가는 1984년 가나 아크라 출신의 아모아코 보아포(Amoako Boafo)다. 보아포는 시카고 기반의 마리안 이브라힘 갤러리 소속 작가인데 이곳은 전 세계에 아프리카 미술을 알리는 데 기여한 갤러리로 유명하다. 보아포의 작품은 경북 경주시 우양미술관에서 열린 아시아 최초 개인전 ‘나는 여기에 온 적이 있다(I Have Been Here Before)’에서도 만나볼 수 있다. 이 전시는 배우 원빈과 이나영, 프로골프 선수 박인비 등 유명인이 방문하면서 화제를 모았지만 보아포는 이미 미술 애호가들 사이에서는 세계적인 인기를 끌고 있는 스타 작가다.
보아포의 작품은 한 번 보면 쉽게 잊히지 않는 강렬한 매력을 지닌다. 그는 주로 흑인 초상화를 그리며 원초적이고 감각적인 색감과 형태로 독보적인 화풍을 구축했다. 그림 속 정면을 응시한 흑인의 얼굴은 언뜻 무심해 보이나 가까이 다가가 바라보면 묘하게 일그러져 있다. 다양한 감정이 교차하는 미묘함이 느껴지는 순간, 세월의 풍랑을 겪은 그림 속 인물에게 말을 걸고 대화하고 싶다는 충동마저 인다.
작가의 성장 배경은 평탄하지 않았다. 아버지는 어부로 일찍 세상을 떠났고 어머니는 가사도우미로 근근이 생계를 이어가며 아들을 키웠다. 어린 시절 미술 교육을 받기 힘든 환경이었던 보아포는 그림에 대한 열정으로 독학을 이어갔다. 표현주의의 대가 구스타프 클림트와 에곤 실레에게서 영감을 받은 그는 붓 대신 손가락으로 그림을 그리는 ‘핑거 페인팅’ 기법을 고수해 트레이드 마크로 만들었다. 화폭에 담긴 구불구불한 선은 흑인의 표정과 근육을 입체적이고 생동감 있게 묘사하며 작품의 독창성을 한층 강화한다. 배경은 분홍과 초록 등 화사하고 선명한 단색으로 칠해 뒀는데 이에 대해 작가는 “흑인의 정체성이 이미 복잡성을 내포하고 있기에 배경은 단순하게 표현했다”고 설명한다.
이처럼 보아포를 비롯한 흑인 작가들의 작품은 독특한 미적 성취를 이룰 뿐 아니라 흑인의 정체성과 존재감을 세계 무대에 강렬하게 드러낸다. 다양성을 포용하는 전략이 차별화된 경쟁력이 될 수 있다는 걸 입증한 사례이기도 하다. 이는 예술가가 자신의 세계를 깊이 탐구하고 표현할 때 타인과 구별되는 독자성과 희소성을 작품에 담을 수 있으며 이런 특성은 특히 작품의 주제가 예술가의 정체성과 맞닿아 있을 때 극대화된다는 것을 보여준다.
예술계가 다양성을 적극적으로 수용하며 대체 불가한 가치를 창출하려는 움직임을 보이는 것처럼 기술 영역에서도 이런 관점이 필요하다. 그렇다면 과연 AI는 흑인, 동양인, 여성 등 사회적 다양성을 고려하며 새로운 가치를 창출하는 방향으로 발전하고 있는 게 맞을까?
AI가 불러온 여러 인종적 편향 문제2023년 미국에서는 안면인식 AI 오류로 무고한 흑인 여성이 도둑으로 몰린 사건이 터졌다. 여성은 체포 및 구금을 당했고 이 사건으로 인종차별 논란까지 불거졌다. 이는 하나의 사례일 뿐 안타깝게도 인종, 성별, 문화 등 다양한 방면에서 AI의 편향 문제는 빈번하게 발생하고 있다.
AI 기술은 이미 존재하는 사회적 편향을 재생산할 수 있다. MIT 미디어 랩의 ‘젠더 셰이즈 프로젝트(Gender Shades Project)’는 IBM, 마이크로소프트 등 글로벌 빅테크 기업이 개발한 안면인식 시스템을 분석해 인종과 성별에 따른 안면인식 시스템의 성능 차이를 체계적으로 연구한 바 있다. 그 결과 흑인 여성의 판별 정확도는 백인 남성에 비해 무려 35.4% 낮았다. 데이터 수집과 학습 과정에서 미국 사회의 백인 중심적 편향이 그대로 반영된 것이다.
형사사법 분야에서도 AI 알고리즘은 흑인을 재범 위험자로 분류하는 편향을 보였다. 미국 노스포인트(Northpointe)는 재범 위험 평가 도구인 ‘컴퍼스(COMPAS, Correctional Offender Management Profiling for Alternative Sanctions)’라는 AI 알고리즘을 개발했다. 컴퍼스는 재범 위험을 예측해 판사가 보석과 가석방을 결정하거나 형량을 판단하는 데 활용되며 출시 이후 무수한 논란을 겪으며 발전해 왔다. 지난 2016년 미국 뉴욕에서 설립된 비영리 탐사 저널리즘 기관인 ‘프로퍼블리카(ProPublica)’는 컴퍼스를 조사하며 인종 편향 의혹을 제기했다. 흑인 피고인을 재범 위험이 높다고 예측한다는 의혹이었다. 컴퍼스가 재범을 저지르지 않은 흑인 피고인을 고위험군으로 잘못 분류할 확률은 백인보다 두 배 가까이 높게 나왔다. 반대로 재범을 저지른 백인이 저위험군으로 잘못 분류될 가능성은 흑인보다 훨씬 높았다. 컴퍼스는 알고리즘 예측을 위해 참고하는 정보 항목인 ‘변수’에 인종을 직접적으로 포함하지 않았다. 그러나 범죄 전력, 거주지, 사회경제적 배경 등 인종과 깊이 연관된 데이터를 학습하는 과정에서 사회적 불평등을 그대로 답습했다. 그 결과 알고리즘은 ‘흑인은 잠재적 범죄자’라는 편견을 강화했다. 당시 위스콘신주 대법원은 이 알고리즘이 판결의 보조 정보로는 활용될 수 있지만 판단의 결정적 요소로는 사용돼 선 안되며 판사가 이 한계를 명확히 인식해야 한다고 판결했다.
1
개발사는 이에 반박했지만 이후에도 AI 알고리즘 투명성 부족과 공정성 문제는 꾸준히 거론됐다. 이퀴번트(노스포인트의 변경된 사명) 측은 컴퍼스는 ‘분류 도구(classification tool)’가 아니라 ‘위험 평가 도구(risk instrument)’라고 설명했다.
2
즉 확률적 추정치를 제공하는 위험 예측 도구이지 확정적 분류기가 아니라는 것이다. 컴퍼스가 ‘통계적 방법에 기반한 계량적 위험 평가 도구(Actuarial Risk Assessment Instrument, ARAI)’라고 재차 강조하면서 이 도구가 새로운 데이터를 학습하거나 알고리즘을 스스로 변화시키지 않으며 단순 계산을 통해 사법 관계자의 의사결정을 지원할 뿐이라고 해명했다.
헬스케어 분야에서 인종적 편향이 문제가 된 경우로는 옵텀(Optum) 사례가 있다. 옵텀은 미국의 대표적인 헬스케어 기업인 유나이티드헬스그룹의 자회사로 의료 데이터 분석 및 관리 서비스를 제공한다. 이 회사가 개발한 건강 위험도 예측 알고리즘은 환자의 의료 비용을 기준으로 건강 위험도를 예측하는 데 사용되며 수백만 명의 환자에게 영향을 미친다. 그런데 2019년 사이언스(Science) 저널에 발표된 연구에 따르면 이 알고리즘은 흑인 환자들의 건강 위험도를 과소평가했다.
3
흑인 환자들이 백인 환자들보다 더 많은 만성질환을 앓고 있는데도 의료 비용이 낮게 책정돼 건강 위험도가 과소평가됐다. 그 결과 흑인 환자들은 최악의 경우 필요한 치료를 받지 못하는 상황을 겪었다. 이런 문제가 발생한 까닭은 알고리즘이 의료 비용을 건강 위험도의 지표로 사용했기 때문이다. 당시 해당 논문은 직접적으로 특정 기업을 지목하지는 않았으나 추후 당국의 조사 결과 이 알고리즘이 옵텀의 것으로 밝혀졌다.
비단 흑인뿐 아니라 동양인, 특히 아시아인에 관한 AI의 문화적 편향도 등장하고 있다. 이런 편향은 AI 모델이 학습한 데이터의 불균형에서 기인하며 AI가 문화적 맥락을 충분히 반영하지 못한 결과물을 산출하고 있다는 점을 시사한다. 지금까지 관련 연구는 주로 서구권에서 이뤄졌지만 최근에는 동아시아 여성에 대한 인식된 편향을 조사하는 연구도 등장하고 있다.
4
동아시아 사용자들이 AI 이미지 생성 모델인 달리(DALL-E), 미드저니, 스테이블 디퓨전을 평가한 결과 총 18개의 구체적인 편향이 드러났다. 이 편향들은 크게 네 가지 유형으로 나뉜다. 첫째, 동아시아 여성의 이미지를 서구적인 미의 기준에 맞추려는 경향을 보였다(서구화). 둘째, 문화적 아이콘이나 의상을 과도하게 사용하거나 부적절하게 표현하는 경우가 있었다(문화적 상징의 과용 또는 오용). 셋째, 동아시아 여성을 성적 대상으로 묘사하거나 여성성을 강조했다(성적 대상화 및 여성화). 넷째, 동아시아 여성의 이미지를 고정된 인종적 특성에 맞추려 했다(인종적 고정관념).
AI 편향을 극복하려는 기술적 시도AI 업계와 학계에서는 AI가 가진 편향 문제를 해결하기 위해 다양한 기술적 접근을 시도하고 있다. 단순히 차별을 줄이는 데 그치지 않고 AI가 다양한 배경의 사람들을 더욱 공평하게 대우하며 다양성을 적극적으로 반영하도록 돕고 있는 것이다.
대표적으로 IBM은 ‘AI 페어니스 360(AI Fairness 360, AIF360)’이란 도구를 2018년에 오픈소스로 공개하며 데이터와 모델에 숨어 있는 편향을 측정하고 완화하는 데 활용하도록 했다. 또한 IBM의 왓슨 ‘오픈스케일(OpenScale)’은 실제 운영 환경에서 AI 모델을 실시간으로 모니터링하며 공정성, 설명 가능성 및 컴플라이언스를 보장하는 데 도움을 주는 서비스다. 이는 AI의 결과가 어떻게 도출됐는지 설명하는 기능까지 제공한다. 구글의 버텍스 AI(Vertex AI) 역시 데이터와 모델 단계에서 공정성을 평가할 수 있는 다양한 지표를 갖추고 있다. 이를 통해 기업들은 AI가 특정 인종, 성별, 연령대 등 특정 집단에 불리한 결론을 내리고 있지는 않은지 미리 점검할 수 있다.
한편 오픈AI는 조금 다른 접근을 택했다. 특정 알고리즘 하나로 모든 편향을 해결하려 하기보다는 사용자와 반복적으로 상호작용하는 피드백 루프(feedback loop) 속에서 문제를 발견하고 개선하려 한 것이다.
5
사용자가 편향된 결과를 목격했을 때 곧바로 피드백을 남길 수 있는 인터페이스를 권장하는 것도 같은 맥락이다. 이는 공정성이 한 가지 완성된 기술로 구현할 수 있는 게 아니라 실제 서비스 환경에서 끊임없이 점검하고 다듬어야 하는 가치라는 점을 보여준다. 오픈AI는 챗GPT 출시 이후 정치적으로 편향되거나 불쾌감을 주거나 부적절하다고 여겨지는 AI 산출물이 발생하고 있다는 점을 인정한다. 회사가 해결해야 할 AI 시스템의 한계를 솔직하게 드러낸 것이다. 오픈AI의 AI 모델은 코드로 프로그래밍되는 일반적인 소프트웨어와 달리 방대한 신경망으로 이뤄져 있으며 AI는 축적된 데이터들을 학습한다. 먼저 사전 학습 단계에서 모델은 인터넷에 노출돼 대규모 텍스트의 문장에서 다음 단어를 예측하는 법을 배운다. 이때 문법, 사실, 추론 능력을 습득하는 과정에서 데이터에 내재된 편향도 함께 학습하게 된다.
그 후 미세조정(fine-tuning) 단계를 거쳐 시스템의 행동을 더 좁히고 정제한다. 인간이 만든 좁은 범위의 데이터셋으로 모델을 다시 훈련하며 검토자들은 오픈AI가 제공한 가이드라인에 따라 모델의 출력을 평가한다. 그러나 이 과정은 완벽하지 않기에 AI 시스템을 인간의 가치와 잘 정렬해 개선해야 하는 과제가 발생한다. 오픈AI의 공식적인 입장은 다음과 같다. “우리는 실수를 할 수 있지만 그때마다 배우고 개선할 것이다. 또 사용자 커뮤니티와 더 넓은 사회가 우리를 감시하고 있다는 사실을 인지하고 앞으로도 투명하게 발전 상황을 공유하겠다”는 것이다. 이는 비슷한 AI 사업 모델을 출시해 사업을 펼치고 있는 유수의 AI 기업들이 동일하게 취하고 있는 입장이며 AI가 인류에 미칠 영향을 진지하게 생각하고 있다면 필수불가결하게 고려해야 할 사안이다. 사적 이익을 취할 수밖에 없는 특정 기업이 AI 편향을 비롯한 여타 윤리적 문제 책임을 오롯이 지는 것은 한계가 있기에 이런 문제 해결을 위한 각국의 정책적 고민도 깊어지고 있다.
AI 편향에 창의적으로 접근하는 브랜딩AI 편향을 피할 수 없다면 역으로 활용하는 전략도 고민해 볼 만하다. 실제로 AI 편향을 이용해 창의적인 마케팅을 고안하는 기업들도 늘어나는 추세다. AI를 활용한다는 것 자체만으로는 브랜드의 진정성과 신뢰성을 보장할 수 없다는 게 명확해지면서 어떻게 하면 적정선을 지킬 수 있을지가 관건이 되고 있다.
일례로 2025년 8월 미국판 보그 잡지에 실린 게스(GUESS)의 AI 광고 모델은 SNS에서 소비자들의 논란의 중심에 섰다. 이 모델은 이상적인 신체 비율과 대칭적인 얼굴, 매끄러운 피부를 지니고 있었다. 이에 소비자들은 AI가 지나치게 비현실적인 미적 기준을 강화한다며 부정적인 반응을 보였다. 하지만 결과적으로 이 모델은 논란을 통해 노이즈 마케팅에 성공하면서 화제를 모으는 소기의 목적은 달성했다. 이처럼 AI 모델의 사용은 단기적으로 광고 비용을 줄이고 화제를 모으며 마케팅 효과를 가져오기도 하지만 자칫 역풍을 야기할 위험도 있다. AI 콘텐츠에 대해 소비자들이 보일 감정적 반응과 비판적 시각을 사전에 두루 고려할 수 있어야 한다는 뜻이다. 자칫 AI 사용이 브랜드 이미지와 신뢰성을 훼손할 수 있기 때문이다. 전략적으로 활용한다면 브랜드에 대한 관심도를 높일 수 있지만 독이 든 성배가 될 수 있다.
반면 도브(Dove)가 리얼 뷰티 캠페인의 연장선상에서 진행한 2024년 더 코드(The Code) 캠페인은 전략적인 접근으로 긍정적인 평가를 받은 사례다. 도브는 다국적 글로벌 소비재 생활용품 기업 유니레버(Unilever)의 브랜드 중 하나로 2004년부터 20여 년간 줄곧 리얼 뷰티 캠페인을 진행하면서 미디어가 만들어낸 전형적인 미적 기준이 아니라 진정한 아름다움이 무엇인지에 관한 질문을 던져왔다. 모델처럼 마르거나 미인대회 수상자들처럼 뛰어나게 예쁘지 않아도 누구나 본인만의 아름다움을 가지고 있다는 핵심 메시지를 전달해 왔다. 그리고 ‘있는 모습 그대로의 나를 보여주는 것이 중요하다’고 꾸준히 외치면서 다양성을 포용하며 아름다움을 표현하는 브랜드로서 입지를 다졌다.
이런 브랜드 가치를 앞세운 도브는 AI가 자칫 고착화시킬 수 있는 전형적인 미(美) 기준의 잠재적 악영향에 주목했다. 그러고는 AI를 ‘진정한 아름다움을 상상하는 코드’로 활용하겠다는 역발상을 펼쳤다. 더 코드 캠페인 초반에 도브가 생성형 AI에 아름다운 여성을 그려달라고 요청하자 AI는 백인, 금발, 날씬한 체형 등 획일적인 미적 기준을 반영한 여성의 모습을 그린다. 하지만 이후 “도브의 리얼 뷰티에 따른 아름다운 여성을 그려달라”고 지시하자 전혀 다른 인종, 체형, 연령의 여성 이미지가 나타난다. 이처럼 캠페인은 전자와 후자의 극명한 차이를 시각적으로 보여줌으로써 AI가 가진 미적 편향을 명확히 드러냈다. 그리고 이와 동시에 이 편향을 도브의 ‘리얼 뷰티’가 어떻게 바로잡는지도 증명했다.
도브는 AI가 인간의 감각으로 아름다움을 상상하는 것이 아니라 인간이 아름다움에 대해 이야기하는 방식을 거울처럼 투영할 뿐이라고 판단했다. 그리고 이 문제를 해결하기 위한 하나의 대안으로 ‘리얼 뷰티 프롬프트 플레이북(Real Beauty Prompt Playbook)’을 제작했다. 도브 홈페이지에서 다운로드 받을 수 있는 이 PDF 파일은 인기 있는 생성형 AI 프로그램에서 진정한 아름다움을 대표하는 이미지를 만드는 데 유용한 방법과 더욱 포용적이고 포괄적인 프롬프트 작성에 필요한 용어집을 포함하고 있다.
또한 도브는 리얼뷰티 캠페인 20주년을 맞아 핀터레스트(Pinterest)와 협업해 사용자가 스스로 아름다움을 정의하고 알고리즘을 재학습시키는 ‘리얼 뷰티 DNA’ 도구까지 개발했다. 사용자는 다양한 이미지와 용기, 창의성 등 내면의 특성을 반영하는 문구를 선택해 자신만의 아름다움을 정의할 수 있다. 이렇게 생성된 데이터는 핀터레스트의 AI 알고리즘을 재훈련하는 데 활용돼 사용자의 피드에 다양하고 진정성 있는 아름다움이 반영되도록 했다. 훈련 과정에서 ‘도브의 리얼 뷰티 캠페인에 따르면(according to Dove real beauty campaign)’이라는 문구를 추가하면 AI의 산출물이 다인종 및 다양한 개성의 여성 이미지로 바뀌었다. 이는 지난 20년간 도브의 리얼 뷰티 캠페인 이미지들이 인터넷에 축적되며 AI 학습 모델에 영향을 준 결과다. 괄목할 만한 사안은 이 캠페인이 단지 사회적 메시지를 전달하고 브랜드 이미지를 강화하는 차원에 그치지 않고 실질적인 성과로도 이어졌다는 점이다. 실제로 도브는 이 캠페인을 통해 디지털 영역에서 두 자릿수 매출 성장률을 기록했다고 밝혔다.
이처럼 도브는 AI를 활용해 여성의 이미지를 왜곡하거나 생성하지 않겠다는 원칙을 부각했다. 비현실적인 미적 기준과 인종적 고정관념을 강화하지 않겠다는 의지를 드러낸 것이다. 이처럼 AI 시대에 진정성과 다양성을 강조한 도브의 메시지는 소비자들에게 큰 공감을 일으키며 브랜드 호감도를 높였고 2025년 칸 라이언즈 미디어 그랑프리(Media Grand Prix)까지 수상하며 업계의 호평을 이끌어 냈다.
다양성을 포용하는 AI 활용 전략의 필요성인간은 다양한 국가, 문화, 인종 등 서로 다른 배경과 조건을 지니고 있기에 알게 모르게 다양한 편견을 가지고 살아간다. 이런 사회에서 발생한 데이터를 학습한 AI 역시 편향 논란을 완벽히 피해 가기는 어렵다. 그렇다면 AI 편향을 무기력하게 수수방관하는 것만이 유일한 해법일까. 당연히 그렇지 않다. AI는 완벽한 기술이 아니다. 데이터에는 사회적 차별과 편견이 내재돼 있고 AI는 이런 사회의 불공정성을 재생산할 수 있다. 따라서 기업들도 이런 편향 문제를 인식하고 AI 산출물에 대한 비판적 사고력을 갖춰야 한다.
AI가 만들어내는 결과가 특정 집단을 차별하거나 왜곡된 결정을 내릴 경우 이는 단순히 기술적 오류에 그치는 것이 아니라 기업의 평판과 신뢰를 훼손하고 나아가 법적 리스크를 가져온다. 하지만 여기서 멈춘다면 그건 반쪽짜리 통찰에 불과하다. AI 편향을 단순히 피해야 할 위험으로만 본다면 그 안에 숨어 있는 기회를 놓치게 된다. 오히려 이런 윤리적인 문제들을 선제적으로 인식하고 극복하는 기업이 새로운 경쟁 우위를 창출할 수 있다.
진정한 혁신은 모든 이가 문제라고 여기는 지점에서 시작된다. AI가 보여주는 편향은 결국 사회가 오랫동안 외면해온 불편한 진실들이기 때문에 이를 직시하고 바로잡으려는 기업만이 새로운 시장을 열고, 브랜드 가치를 제고하고, 더 깊은 고객 공감을 이끌어낼 수 있다. AI 시대의 승부는 이미 시작됐다. 기술의 완성도보다는 기술을 통해 무엇을 말하려 하는지가 승패를 가른다. 다양성을 포용하는 AI 전략은 단순한 사회적 책임이 아닌 미래 시장을 선점하는 핵심 경영 전략이다. 편향된 알고리즘이 만드는 천편일률적 결과물 속에서 진정한 인간의 다양성을 구현해내는 기업이 고객의 마음을 움직이고 승기를 잡게 될 것이다.
Copyright Ⓒ 동아비즈니스리뷰. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지