[서울=뉴스핌] 박민경 기자 = 인공지능(AI) 산업 진흥과 신뢰 확보를 동시에 내건 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(인공지능 기본법)이 시행되면서, 기대와 우려가 교차하고 있다. 고영향 AI 규율과 생성형 AI 결과물 표시(워터마크) 의무를 두고 "방향성은 긍정적이지만 기준이 지나치게 추상적"이라는 지적도 나온다.
인공지능기본법은 인공지능의 건전한 발전과 신뢰 기반 조성을 위한 기본 원칙을 규정해 국민의 권익과 존엄을 보호하고, 삶의 질과 국가 경쟁력 제고를 목표로 한다. '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(AI 기본법)은 지난 1월 22일 시행에 들어갔다.
한국은 전 세계에서 AI 기본법을 전면 시행하는 첫 번째 국가가 됐다. 해당 법은 국내 시장·이용자에 영향을 미치는 경우 국외 행위에도 적용된다. 다만 국방·국가안보 목적 전용 AI는 대통령령이 정하는 범위에서 적용 제외가 가능하다.

추진 체계로 과학기술정보통신부 장관이 3년마다 인공지능 기본계획을 수립·변경·시행하고, 대통령 소속 국가인공지능전략위원회가 이를 심의·의결하도록 했다. 위원회는 기본계획 점검, 부처 간 조정, 투자·연구개발(R&D)·인프라 확충, 국제협력, 고영향 AI 규율 등 핵심 정책 기능을 맡는다. 고영향 AI 규율은 사람의 생명·신체·권리·재산에 큰 영향을 줄 수 있는 분야의 AI를 뜻한다.
산업 진흥 측면에서는 표준화, 학습용데이터 통합 제공, 기업·공공의 AI 도입 확산, 중소기업 우대, 창업·융합 촉진, 전문인력 양성, 집적단지·실증기반·데이터센터 조성, 협회 설립 등을 담았다. 신뢰·안전 분야에서는 윤리원칙 확산과 민간 자율윤리위원회 설치 근거를 두고, 생성형 AI 및 고영향 AI에 대해 'AI 기반 운용' 사전 고지와 생성물 표시 등 투명성 의무를 부과했다.
학계와 법조계에서는 AI 활용이 증가하는 만큼, 부작용을 감소시켜야 한다고 강조하고 있다.
김경환 법무법인 민후 변호사는 "AI 활용을 장려하되 딥페이크 등 부작용을 최소화할 장치는 필요하다"며 "AI 생성물 표시 의무화는 맞는 방향"이라고 평가했다. 다만 "어느 수준의 AI 활용부터 표시 의무가 발생하는지 모호해 현장 혼선이 예상된다"며 "시행 초기 혼란은 자연스러운 과정이지만, 사회적 합의를 토대로 세부 기준을 다듬어야 한다"고 강조했다.
이재성 중앙대 AI 교수는 "고위험 AI 판정의 불확실성이 줄어 산업계에는 최소한의 '안전판'이 마련됐다"고 평가하면서도 "정부 내 전문역량이 충분치 않은 만큼 시행령과 가이드라인에서 보완이 필요하다"고 진단했다. 고위험 AI 판정이란 어떤 AI 시스템이 사람의 권리·안전·사회 질서에 큰 위험을 줄 수 있는지 등급을 매기는 절차를 말한다.
또 법안은 대통령령 기준 이상 누적 연산량을 사용한 AI에는 수명주기 전반의 위험관리와 사고 모니터링·대응 체계 구축 의무를 부여하고, 이행 결과 제출을 요구한다. 고영향 AI 제공 사업자에는 위험관리, 설명·이용자 보호, 인간의 감독, 문서화·보관 등 조치를 요구하며, 일정 요건의 해외 사업자에는 국내대리인 지정·신고 의무를 둔다. 위반 시 조사 및 시정명령이 가능하고, 사전 고지 미이행이나 국내대리인 미지정은 과태료, 비밀 누설은 형사처벌 대상이다.
세계미래보고서 저자 박영숙 미래학자는 고위험 AI 판단 기준의 세분화와 플랫폼·개발사 간 책임 범위 명확화를 제언했다. 아울러 "행정기관 간 권한 중첩을 조정하고, 스타트업을 위한 표준 컴플라이언스 모델과 컨설팅 지원을 확대해야 한다"고 강조했다.
박 학자는 또 "AI 규제를 둘러싼 여러 행정기관의 권한이 일부 중첩될 수 있다"며 "기관 간 역할을 명확히 하고 통합적 조정 메커니즘을 마련해야 한다"고 지적했다. 아울러 "스타트업이 법을 준수할 수 있도록 표준 컴플라이언스 모델과 실무 컨설팅 지원을 확대해야 한다"고 강조했다.
정부가 사실조사권 행사와 과태료 부과를 1년 이상 유예하고 전문가 지원 데스크를 운영하기로 한 점은 연착륙을 위한 조치로 평가된다. 다만 전문가들은 "급변하는 기술 환경에 맞춰 예측 가능하고 유연한 규율 체계를 구축해야 한다"고 입을 모았다.
pmk1459@newspim.com












