■ 이 주의 논문
김수아(2025). 성평등 관점에서 본 국내 AI 윤리와 정책 담론: 접근성, 편향 및 지식의 재개념화를 중심으로. 『언론정보연구』, 62(3), 53-91.
흔히 중립적으로 작동한다고 생각되는 알고리즘이 사실 여러 사회적 편견들에 물들어 있다는 사실이 알려지면서 사회적, 구조적 차별이 알고리즘 및 기계 지능에 어떻게 개입하고, 어떻게 증폭되는지에 대한 논의가 활발합니다. 이 논문은 비판적 정책 분석 방법론 WPR(What’s the Problem Represented to be?) 접근법을 활용해 2020년부터 2024년까지 정부의 주요 AI 정책자료들을 성평등을 위한 접근성 보장, 편향 제거, 그리고 소수자 지식 틀이라는 관점에서 분석하고 있습니다. 지나치게 추상적인 윤리기준(‘모든 사람을 위한’, ‘차별 없는’)은 사회적 담론의 장을 열기 어려우며, 공정 개념을 동등한 대우로만 한정하거나 차별을 심리적 편견의 문제로 접근할 경우 성평등을 비롯한 ‘차별’의 구조적 측면을 놓칠 수 있음을 보여주는 의미 있는 연구입니다.
<논문초록> 이 연구는 한국의 ‘사람이 중심이 되는 인공지능 윤리기준’ 및 이를 기반으로 이루어지는 인공지능 윤리 및 AI 관련 정부 정책에 대한 담론 분석을 통해, AI 윤리 기준과 정책에서 고려되어야 할 성평등 이슈가 무엇인지를 제기하고자 한다. 현재 한국의 정책 담론에는 젠더 이슈를 별도로 제기하지 않고 다양성 관점에서 접근성 보장 및 편향의 제거를 핵심 과제로 설정 하고 있다. 이때 접근성의 문제가 기존의 정보 격차 모델에 따라 평가되어 AI 기술 이해와 활용의 문제를 다루기 어렵다. 또한, 편향이 제거된 세계를 핵심 과제로 설정할 경우, 편향 제거를 위한 데이터 투입과 조정 과정에서 기존의 차별적 범주를 재생산하는 반면 현실 세계의 편향을 발생시키는 사회적 구조는 논의되지 못한다. AI 노동 영역에 대한 정책 담론은 인재 양성이나 산업 발전의 중심으로 하는 추격 담론을 중심으로 형성되어, 노동 현장과 개인의 노동권에 미치는 영향에 대한 논의의 틀을 마련하지 못했다. 이 연구는 AI와 성평등 논의에서 구조적 관점과 차이의 존중이 없이 통계적 평균에 근거한 편향의 최소화만을 윤리 기준으로 삼는 것에서 벗어나 노동의 가시화, 돌봄 윤리 고려, 다양한 지식의 데이터화를 비롯한 보다 다층적인 성평등 관점의 접근이 필요하다고 주장한다. |

