AI 생성 콘텐츠 표시 명령도
'정보기술법' 개정안, 초안보다 플랫폼 준수 규정 기준 높여
[방콕=뉴스핌] 홍우리 특파원 = 인도 정부가 인공지능(AI) 기반의 딥페이크 및 허위 영상물에 대한 우려가 커짐에 따라 소셜 미디어 플랫폼과 인터넷 사업자를 대상으로 한 유해 콘텐츠 삭제 규정을 대폭 강화했다.
10일 비즈니스 스탠다드(BS)에 따르면, 인도 전자정보기술부는 부적절하거나 불법적인 콘텐츠 관련 신고 접수 뒤 소셜 미디어 플랫폼과 인터넷 사업자가 3시간 내에 해당 콘텐츠를 삭제해야 한다고 밝혔다. 신고 접수 후 최대 36시간 이내였던 콘텐츠 삭제 시한을 대폭 단축한 것이다.
전자정보기술부는 또한 동의 없이 촬영된 성적인 이미지는 기존 24시간에서 2시간 이내에 플랫폼에서 삭제할 것을 명령했다.
인도 당국은 2021년부터 시행된 정보기술법(중개자 가이드라인 및 디지털 미디어 윤리 강령, IT법)을 개정하며 이 같은 내용을 추가했다. 개정된 IT법은 오는 20일부터 정식 시행될 예정이며, 페이스북·유튜브·인스타그램·엑스(X·옛 트위터) 등 플랫폼이 영향을 받게 된다고 BS는 전했다.

유해 콘텐츠 삭제 시한 단축은 다양한 이해관계자들의 의견을 반영한 것으로 알려졌다. 기존의 36시간 및 24시간 삭제 시한으로는 민감 콘텐츠의 확산을 막을 수 없다는 지적이 제기됐었다.
전자정보기술부의 한 고위 관계자는 "이제 기술 기업들은 이전보다 훨씬 더 신속하게 불법 콘텐츠를 제거해야 할 의무를 갖게 됐다"며 "그들은 분명히 그렇게 할 수 있는 기술적 수단을 갖추고 있다"고 말했다.
개정안에는 모든 AI 생성 및 합성 콘텐츠 표시에 대한 주문도 담겼다. 사용자가 AI를 이용해 콘텐츠를 생성할 수 있도록 하는 플랫폼은 해당 콘텐츠가 인공적으로 생산되거나 수정된 것임을 명확하게 표시해야 한다며, AI 생성 콘텐츠에 가시적 면책 조항을 표시하는 것 외에도 플랫폼들은 콘텐츠 출처를 추적할 수 있는 영구적인 식별 정보(메타데이터)를 삽입해야 한다고 규정했다.
개정안에 따르면, 전자정보기술부는 합성생성정보(SGI)에 대해 "컴퓨터 자원을 활용해 인공적 또는 알고리즘으로 생성·수정·변형되어, 실제이거나 진실인 것처럼 보이게 하는 모든 오디오, 시각적 또는 시청각 정보"라고 정의하며, 다만, AI 도구를 사용했더라도 선의의 목적(Good faith)으로 편집된 콘텐츠는 SGI 정의에서 제외하기로 했다.
"플랫폼은 자사 도구가 SGI를 생성·게시·유포하는 데 악용되었다는 사실을 인지하는 즉시 해당 콘텐츠가 플랫폼에 존재하지 않도록 합리적이고 적절한 기술적 조치를 취해야 한다"고 개정안은 명시했다.
인도 델리 소재 이키가이 로펌의 파트너 변호사인 아만 타네자는 이번 개정안이 의견 수렴을 위해 배포된 개정 초안보다 훨씬 더 광범위하다고 말했다.
타네자는 "인도 정부는 합성 콘텐츠의 정의를 명확히 함과 동시에 '10% 워터마크 의무 삽입'과 같은 경직된 요구 사항에서 벗어났다. 또한 모든 콘텐츠 유형 삭제 시한을 단 몇 시간으로 단축했다"며 "이는 규정 준수 기준을 상당히 높인 것으로 대형 플랫폼들은 이러한 조건을 따르는 데 운영상 어려움을 겪을 수 있다"고 평가했다.
전자정보기술부는 앞서 지난해 10월 AI 생성 콘텐츠 표시 의무화 등을 담은 IT법 개정 초안을 발표했다. 초안에는 소셜 미디어 플랫폼이 AI가 생성한 동영상에 대해 재생 화면 면적의 최소 10%에 'AI 생성 콘텐츠'를 표시하고, AI 생성 오디오 클립에 대해서는 재생 시간 처음부터 10%에 해당하는 시간에 AI 생성 콘텐츠임을 표시하는 조치를 취해야 한다는 내용이 담겼다.
hongwoori84@newspim.com













