'믿:음 K 2.0 베이스' TTA 신뢰성 인증 2.0 획득
[서울=뉴스핌] 서영욱 기자 = KT가 인공지능(AI) 기술 고도화와 함께 안전성과 신뢰를 전제로 한 '책임 있는 AI(Responsible AI·RAI)' 체계를 강화한다. 에이전틱 AI 확산으로 AI가 의사결정과 실행에 관여하는 영역이 커지면서, 산업 전반에서 안전성과 신뢰 확보 요구가 커진 데 따른 대응이다.
21일 KT에 따르면 회사는 AI 윤리를 컴플라이언스 차원을 넘어 AICT(AI+정보통신기술) 중심 경영으로 도약하기 위한 핵심 가치로 설정하고 전사 역량을 모아왔다.
KT는 지난 2024년 '책임감 있는 AI 센터(RAIC)'를 전담 조직으로 구축하고, 국내 통신사 중 처음으로 AI최고책임자(CRAIO)를 임명했다. 자체 AI 윤리 원칙 '아스토리(ASTRI)'도 제정했다. 아스토리는 AI의 기획·개발·운영·활용 전 과정에 ▲책임성(Accountability) ▲지속가능성(Sustainability) ▲투명성(Transparency) ▲신뢰성(Reliability) ▲포용성(Inclusivity) 등 5대 원칙을 적용하는 내용이다.

KT는 매년 'KT 책임감 있는 AI 리포트'를 발간해 AI 윤리 강화 활동과 성과를 공개하고 있다. 지난달 발간한 리포트에는 자체 개발 AI 모델의 사회적 영향·안전성 평가 프로세스와 AI 가드레일(SafetyGuard)을 담았다. RAI 오픈소스 커뮤니티 기여 내용도 포함했다. RAI 교육 확산 등 책임 있는 AI 프레임워크 기반 실천 사례도 소개했다.
외부 전문가로 구성된 'KT 책임 있는 AI 자문위원회' 운영도 이어가고 있다. 정부와 산업계 협력 아래 AI 제도 논의에도 참여해 왔다. 계열사와 협력사를 포함한 전 직원을 대상으로 AI 윤리 교육을 필수 과정으로 운영하며 책임 있는 AI 문화 확산에도 힘을 쏟고 있다.
기술 측면에서는 국내외 AI 리스크 관리 체계를 검토해 국내 환경에 맞는 자체 AI 안전성 기준을 수립했다. AI 리스크 식별·평가·완화를 위한 기술 가이드라인 성격의 '책임있는 AI 기술보고서(Technical Report)'도 지난해 10월 발간했다. 이 보고서는 AI 개발부터 운영까지 전주기 위험 관리 체계를 구축하고, 실제 환경에 적용 가능한 평가 체계와 구현 전략을 제시했다.
AI 모델의 유해 응답을 실시간으로 차단하는 'AI 가드레일(SafetyGuard)'은 지난해 9월 허깅페이스(Hugging Face) 플랫폼에 공개했다. 한국어 AI 모델의 윤리적 응답 품질을 평가하는 벤치마크 '코어 에시컬(Kor Ethical) QA' 기준으로 F1 스코어 97점을 기록한 바 있다.
이 같은 노력의 결과로 KT 자체 개발 AI 모델 '믿:음 K 2.0 베이스'는 국내 AI 모델 중 처음으로 한국정보통신기술협회(TTA)로부터 '인공지능 신뢰성 인증 2.0(CAT 2.0)'을 획득했다. AI 모델을 개발·운영하는 기업의 책임성과 신뢰성을 객관적으로 검증받았다는 점에서 의미가 있다고 KT는 설명했다. TTA가 국제 표준을 기반으로 인증 체계를 고도화한 이후 이를 적용한 첫 사례다.
글로벌 평가에서도 성과를 냈다. 세계이동통신사업자연합회(GSMA)는 RAI 성숙도를 4단계로 평가하는데, KT는 2025년 평가에서 최고 등급인 'Advanced(기업 문화 내재화)'를 달성했다. 국내 이동통신사 중 최초로 글로벌 모범 사례로 소개됐다고 KT는 밝혔다.
KT는 성능 중심 AI를 넘어 믿을 수 있고 바로 활용 가능한 AI를 앞세워 국내 기업과 공공 고객의 AI 전환(AX)을 지원한다는 방침이다. 배순민 KT CRAIO 상무는 "앞으로도 신뢰할 수 있는 AI 기술을 기반으로 국내 AI 산업의 건강한 성장과 이용자 신뢰 확보에 기여하겠다"고 말했다.
syu@newspim.com












