AI 인사이트 & 경제

생성형 AI의 그림자노동: 데이터 라벨링 노동자들의 현실

AI 길잡이 2025. 10. 12. 18:25

생성형 AI의 그림자노동: 데이터 라벨링 노동자들의 현실

 

1. 보이지 않는 AI 산업의 이면

생성형 AI는 혁신의 상징으로 여겨진다. 텍스트 한 줄로 이미지를 만들고, 대화형 인공지능이 사람처럼 답변한다.
그러나 이러한 기술의 이면에는 대규모의 인간 노동이 존재한다.
AI가 데이터를 학습하려면 방대한 양의 이미지·텍스트·영상이 정확히 분류되고 정제된 상태로 제공되어야 한다.
이를 수행하는 이들이 바로 ‘데이터 라벨링(data labeling)’ 노동자들이다.
그들은 인공지능이 학습할 수 있도록 수백만 개의 데이터를 분류하고, 잘못된 정보를 수정하며, 혐오·폭력적 콘텐츠를 걸러낸다.
AI의 지능은 이들의 반복적이고 지루한 손노동 위에 세워져 있다.


2. 데이터 라벨링의 구조와 글로벌 하청 체계

대부분의 데이터 라벨링은 선진국 IT기업이 직접 수행하지 않는다.
AI 모델을 개발하는 기업들은 비용 절감을 위해 아프리카, 동남아시아, 남미 등 저임금 국가의 하청업체에 작업을 위탁한다.
케냐, 필리핀, 인도 등에서는 하루 8시간 이상 컴퓨터 앞에서 콘텐츠를 분류하는 인력이 수만 명에 달한다.
이들은 이미지 속 물체에 태그를 달고, 문장에서 혐오 표현을 식별하며, AI가 학습할 수 있도록 데이터를 정제한다.
하지만 임금은 매우 낮다.
국제노동기구(ILO) 보고서에 따르면, 일부 하청 인력은 시간당 1달러 미만을 받으며 일하는 것으로 나타났다.
AI 산업이 고도의 첨단기술 위에 서 있는 것처럼 보이지만, 실제로는 디지털 하청 구조가 그 기반을 이루고 있는 셈이다.


3. 오픈AI와 케냐의 사례 — 감정적 피해의 대가

2023년, 타임(TIME)지는 OpenAI가 케냐의 외주업체를 통해 ChatGPT의 데이터 필터링 작업을 수행했다는 사실을 보도했다.
그 과정에서 케냐 노동자들은 아동 학대, 폭력, 성적 학대 등의 사례를 분류해야 했으며,
이로 인해 심리적 트라우마를 겪었다고 증언했다.
그들은 시간당 2달러 안팎의 보수를 받았고, 정신적 충격에 대한 보호나 상담은 거의 제공되지 않았다.
이 사건은 인공지능의 ‘윤리적 학습’이 사실상 인간의 고통 위에 이루어지고 있음을 보여주었다.
AI가 폭력적 표현을 걸러내고, 혐오 콘텐츠를 구별할 수 있는 이유는 결국 누군가가 그 데이터를 ‘직접 본 후 분류했기’ 때문이다.


4. ‘AI 윤리’의 허상과 데이터 정화의 역설

많은 기업이 “AI 윤리(AI Ethics)”를 표방하지만, 현실은 복잡하다.
AI의 윤리성을 높이기 위해 데이터 정화 작업을 수행하면 할수록,
그 과정에서 저임금 노동자들이 비윤리적인 환경에 노출되는 역설이 발생한다.
기업은 “AI를 더 안전하게 만들기 위해” 외주업체를 고용하지만,
그 결과로 생성되는 노동 환경은 비인간적일 수 있다.
AI 윤리는 코드나 알고리즘으로만 완성되지 않는다.
데이터의 질을 높이는 과정에서 인간이 감당해야 하는 감정적 비용 또한 윤리 논의의 일부가 되어야 한다.


5. 투명성과 책임의 시대 — AI 기업의 새로운 과제

이제 글로벌 사회는 AI 기술의 효율성뿐 아니라 그 생산 과정의 투명성을 요구하고 있다.
유럽연합(EU)은 2024년 제정된 「AI 법안(AI Act)」을 통해
데이터 수집 및 학습 과정의 **‘출처 공개 의무’**를 도입했다.
이는 단순히 개인정보 보호를 넘어,
AI가 어떤 데이터로 학습되었는지, 그 과정에서 어떤 인력이 동원되었는지를 공개하도록 요구하는 조치다.
이러한 규제는 AI 기업이 더 이상 기술적 성과만을 강조할 수 없음을 의미한다.
윤리적 투명성(Ethical Transparency)이 곧 기업 신뢰도의 핵심 지표가 되고 있다.


6. 결론 — 인간 없는 인공지능은 존재하지 않는다
AI는 인간 노동의 산물이다.
데이터를 분류하고, 오염된 정보를 걸러내며, 학습 환경을 정비하는 과정에는 언제나 사람이 있다.
이들의 노동이 없다면 인공지능은 학습할 수 없다.
따라서 ‘AI의 자율성’이라는 개념은 기술적 신화에 불과하다.
AI가 발전할수록 그 뒤에서 일하는 수많은 인간의 손과 눈이 필요하며,
그들의 노동 환경을 개선하는 것은 기술 발전의 다음 단계로 이어진다.
AI 시대의 진정한 혁신은 더 정확한 알고리즘이 아니라,
그 알고리즘을 가능하게 하는 인간의 존엄을 보호하는 시스템에서 출발해야 한다.
AI는 인간의 노동을 대체하는 것이 아니라, 인간 노동의 형태를 변화시키고 있다.
결국, 인공지능의 윤리는 기술의 문제가 아니라 인간의 책임의 문제다.