■ 이 주의 논문
Lyrissa Lidsky & Andrew Daves, “Inevitable Errors: Defamation by Hallucination in AI Reasoning Models,” Journal of Free Speech Law(forthcoming, 2025).
이 논문은 ‘AI 환각에 의한 명예훼손(defamation by hallucination’)에 기존 명예훼손법을 어떻게 적용할 것인가를 다룹니다. 저자들은 최초의 관련 판례인 Walters v. OpenAI (Ga. Super. Ct. 2025) 사건을 출발점으로 LLM(대규모언어모델)의 ‘환각’이 전통적 명예훼손법의 요건과 어떻게 충돌하는지를 분석합니다. 저자들은 LLM이 인간과 달리 ‘의도(intention)’나 ‘인지(knowledge)’를 갖지 않으므로 기존의 ‘출판자의 고의 또는 과실’ 중심의 책임체계로는 문제 해결이 어렵다고 지적합니다. 따라서 저자들은 인공지능을 ‘출판자(publisher)’가 아니라 ‘정보 배포자(distributor)’에 유사한 존재로 보아 합리적 주의의무(reasonable care)와 사후적 기록보존(duty to preserve search records)을 중심으로 하는새로운 책임구조를 제안합니다.
<논문초록> 이 논문은 생성형 인공지능이 필연적으로 산출하는 ‘환각(hallucination)’ 현상이 초래하는 명예훼손 문제를 분석한다. 저자들은 미국 최초의 관련 판례인 Walters v. OpenAI (2025) 사건을 중심으로 기존의 명예훼손 법리가 이러한 기술적 맥락에 적용될 때 드러나는 한계를 규명한다. AI의 출력물은 인간의 ‘의도(intention)’나 ‘인지(knowledge)’에 의해 생성된 것이 아니기 때문에 전통적으로 명예훼손 책임을 구성해온 ‘과실(negligence)’ 또는 ‘현실적 악의(actual malice)’ 요건을 충족하기 어렵다. 즉, AI 자체는 거짓임을 알면서 발행하거나 진실 여부를 무시했다는 의미의 고의 또는 과실을 저지르기 어렵다. 이에 따라 저자들은 기존의 출판자(publisher) 중심의 책임 구조를 재검토할 필요성을 제기한다. 저자들은 인공지능을 ‘출판자’가 아닌 ‘정보의 배포자(distributor)’에가깝다고 보고, 개발자에게는 이용자에게 충분히 경고하고 기록을 보존할 주의의무, 이용자에게는 AI가 생성한 정보를 검증할 확인의무를 부과하는 방안을 제안한다. 이 논문은 또한 AI의 사고 과정 중간 단계에서도 허위 정보가 발생할 수 있음을 지적하며, 이러한오류를 불가피하지만 허용 가능한 오류(inevitable errors)로 평가한다. 이는 미국 연방대법원이 New York Times v. Sullivan 판례에서 제시한 “자유롭고 활발한 공적 토론을 위해 일정한 오류는 불가피하며, 그 자체로 보호되어야 한다”는 원칙을 AI 시대에 확장한 것이다. |

