■ 이 주의 논문
- 박선영·구민화·이준환 (2025). 'AI 기본법'의 저널리즘 영역 적용 가능성 — AI 저널리즘 기술의 위험 분석을 통한 투명성 의무 및 고영향 AI 규정 해석 —. 언론과 법, 24(3), 47-98.
지난 1월 22일 시행에 돌입한 '인공지능 발전과 신뢰 기반 조성 등에 관한 법률', 줄여서 '인공지능 기본법'을 많은 이들이 예의주시하고 있습니다. 언론계 역시 기사의 작성 및 편집, 유통 등에 인공지능을 활용하고 있기에 이 법의 시행과 무관하지 않습니다. 마침 인공지능 기본법의 저널리즘 영역에의 적용 가능성을 분석한 논문이 우리 학회 학술지 <언론과법> 최근호에 실려 소개합니다. 접근법은 다르지만 유사한 주제를 다룬 이희옥 박사님의 논문 '저널리즘에서 인공지능 활용과 기본권 보호'도 더불어 소개합니다. |
<논문초록> 본 연구는 2026년 1월 시행 예정인 '인공지능 발전 및 신뢰기반 조성에 관한 기본법'(이하 “AI 기본법”)이 저널리즘 영역에서 기존의 자율규제 단계를 넘어 언론의 AI 활용에 대해 법적 책임을 부과하는 새로운 규범 체계로 기능할 수 있는지를 검토하는 것을 목적으로 했다. 이를 위해 본 연구는 AI 기본법에 의한 규율의 핵심 판단 기준을 ‘위험성’에 두고, 뉴스의 생애주기(취재–작성–편집–유통) 전 단계에서 활용되는 주요 AI 기술들을 선별하여 그 작동 방식과 구조적 위험을 기술적으로 분석하였다. 나아가 이러한 기술별 위험 구조 및 위험도 평가를 바탕으로, AI 기본법상의 투명성 확보 의무와 고영향 인공지능 관리 규정이 저널리즘 현장에 어느 범위까지 적용될 수 있는지를 검토하였다. (중략) 결론적으로, 내년 시행될 AI 기본법은 극히 예외적인 경우를 제외하고 저널리즘 영역을 원칙적으로 직접 규율하지 않는 법 체계임을 확인했다. 이는 저널리즘 영역에서 AI 위험 규율은 법률에 의한 직접 통제보다는, AI 기본법상 인공지능 윤리원칙(제27~28조) 규정 및 저널리즘 생태계 내에서의 자율규제 체계 내에서 형성돼야 한다는 것을 의미한다. 이러한 법 적용 결과는 표현의 자유와 언론의 자유에 대한 최소 규제 원칙을 구현한다는 점에서는 정당성을 가지는 반면, 공론장 구조와 정보 가시성에 중대한 영향을 미치는 고위험 기술들이 법적 규율의 사각지대에 놓이는 한계를 동시에 내포한다. 향후 규율의 핵심 과제는 고영향 인공지능의 법적 적용 범위를 무리하게 확장하는 데 있지 않고, 언론사, 포털, 플랫폼, 기존 자율규제기구가 공동으로 참여하는 생태계 차원의 협력적 규율 체계를 구축하는 것이 필수적이다. 이에 더해 본 연구는 LLM 자동 작성, 포털 추천 시스템, 댓글 탐지 및 차단 기술 등 뉴스 생애주기별로 위험도가 높은 기술들에 대해서는, 고영향 인공지능에 상응하는 수준의 책임성과 내부 규율 장치를 저널리즘 영역이 자율적으로 수용할 필요가 있다는 방향을 제시했다. 아울러 이러한 자율규율 논의는 헌법적 기본권 침해 가능성에 대한 지속적인 검토와 병행되어야 하며, 본 연구는 그와 같은 후속 연구를 위한 분석적 준거틀로 기능할 수 있기를 기대한다. |
☞ 해당 논문은 여기
☞ 관련 논문은 여기

