■ 이 주의 논문
- 박찬경 (2024). 인공지능은 어떻게 윤리적 ‘대상’이 되는가? - 법적 모형들의 수행성과 반수행성에 관한 분석. <언론과 사회>, 제32권 제4호, 5-62.
<논문 초록> 생성형 인공지능이 인간과 얼마나 유사한 능력, 기능, 주체성을 가지는지에 대한 매우 상반된 시각이 교차하고 있는 가운데, 막대한 사회적 영향력을 갖는 이 기술 체계는 소수의 거대 기술 기업들의 지배적 영향력하에서 더욱더 빠르게 발전하고 있다. 이 사실은 그 자체로 정보, 미디어, 지식 등을 규율하는 법적·윤리적 원칙에 중대한 도전이 될 수 있기에, 전 세계적으로 관련 법안과 정책들이 도입되고 있다. 본 연구는 이러한 정책적 논의에서 발견되는 기존 법적 모형들(legal models)의 균열과 이로부터 발생하는 규제의 공백을 새로운 도덕 원칙, 경영 모델, 기술 혁신을 통한 윤리 체계의 재구성을 통해 메꾸려 하는 노력들을 ‘법적 모형의 수행성과 반수행성’이라는 관점에서 살펴보고자 한다. 발화의 수행성을 넘어, 수행의 물질성을 강조하는 행위자ᐨ네트워크 이론(ANT), 수행성의 실패 또는 오작동으로 인한 모형 재구성에 주목하는 반수행성(counterperformativity) 개념을 응용하여, 본고는 인공지능 관련 주요 정책 사안인 인공지능 기술의 독점, 학습 데이터의 지적재산권, 그리고 인공지능 시스템 실패에 따른 책임 분배 문제와 관련된 갈등적 텍스트들을 분석한다. 이로부터 각각의 법적 논의에서 발생하는 균열이 기술의 사회로부터의 분리, 지식의 고유성, 인간과 비인간 행위자의 구분/연결과 같은 과학기술학의 핵심적 문제들과 긴밀히 연관되어 있음을 규명한다. |
☞ 해당 논문은 첨부파일 참조