> 산업 > 중기·창업

[김정호의 4차 혁명 오딧세이] 인공지능 윤리선언 필요하다

  • 기사입력 : 2018년07월09일 08:00
  • 최종수정 : 2018년07월09일 08:16
  • 페이스북페이스북
  • 트위터트위터
  • 카카오스토리카카오스토리
  • 밴드밴드

인공지능이 인간에게 위협적인 이유

인공지능은 강력한 그래픽 프로세서(GPU)와 메모리를 장착한 컴퓨터에 빅데이터를 이용해서 학습시키면 인간보다 뛰어난 역량을 발휘할 수 있다. 빅데이터만 충분하고, 강력한 컴퓨터 성능을 가지면 인간보다 빠르게 학습하고, 기억을 영원히 무한대로 유지하면서, 대량의 작업을 빠른 속도로 정확하게 수행한다.

    김정호 카이스트 교수

뿐만 아니라 인간보다 정확하게 미래 예측을 할 수 있다. 따라서 우리는 새로운 삶의 방식과 일자리를 창출해야 한다. 이것을 4차 산업혁명이라 부른다.

인공지능을 잘 활용하면 인간에게 이롭게 작용할 수 있다. 컴퓨터가 인간의 뇌 활동을 대신함으로써 인간에게 시간을 절약해 준다. 남은 시간을 인간이 여가 활동이나 창조적인 활동, 인류에 봉사하는 활동에 시간을 쓸 수 있게 해 준다.

뿐만 아니라 인공지능을 통해서 미래를 정확하게 예측함으로써 국가, 사회, 기업, 개인에게 노동, 자원, 그리고 자본을 절약할 수 있는 기회를 준다. 따라서 지구 속에 인간 생존을 영속할 수 있는 기회를 만들어 준다. 궁극적으로 인간에게 노동, 자원, 에너지, 시간에 대한 구속을 석방하고, 자유를 선사할 수 있다.

그러나 마찬가지로 인공지능은 인류에게 매우 위협적이다.

먼저 대부분의 단순 사무직 직업은 컴퓨터가 대체하게 된다. 사람과 같이 52시간 노동 시간 제한도 없다. 일하는 동안 졸지도 않는다. 불평도 없다. 노조도 없다. 직업에서 인간 통제를 완전히 벗어 날 수 있다. 경우에 따라 지능이 더 발전하여 인간의 통제를 벗어나 인간이 인공지능에 종속될 가능성도 가정해 볼 수 있다.

더 나아가 경제적인 부분에서도 인간 사회에 고민을 만든다. 인공지능은 돈을 쓰지 않는다. 세금을 내고 있지 않다. 따라서 현재의 자원, 생산, 소비, 유통, 세금 등으로 이루어진 경제 원리와 체계가 완전히 달라질 수 있다. 평화로운 인간 사회의 균형과 질서가 소멸될 수 있다.

인공지능의 핵심 기술이 딥러닝 뉴럴 네트워크의 개념. [출처 : KAIST]

 

구글의 인공지능 7가지 원칙

최근 구글이 '메이븐 프로젝트'라 불리는 프로젝트를 통해서 미국 국방부와 인공지능을 활용한 무기 성능 향상 프로젝트에 참여한 것이 문제가 됐다. 논란끝에 구글 직원들의 반대로 '메이븐 프로젝트'가 철회되었다. 이후 구글은 "우리는 인공지능을 활용한 자율작동 무기 개발에는 참여하지 않는다는 원칙을 정했다"고 밝혔다.

구글은 더 나아가 7가지 인공지능 원칙도 발표했다. 그 7가지 원칙은 다음과 같다. 인공지능을 이용하여 개발하고 연구함에 있어서 “(1) 사회적으로 유익하며, (2) 불공정한 편향을 만들어내거나 강화하지 않고, (3) 안전성을 우선으로 설계하고, (4) 인간을 위해 책임을 다하며, (5) 개인정보를 보호하고, (6) 과학적 우수성에 대한 높은 기준을 유지하는, (7) 이러한 원칙에 부합하는 용도에만 활용한다”는 원칙이다. 덧붙여 구글 CTO 제프 딘은 "구글의 엔지니어 2만명은 인공지능 원칙에 관한 교육과정을 다 거쳤다”다고 밝혔다.

지난 6월 16일 서울에서 열린 'AI with Google 2018' 에서 구글의 인공지능 개발 현황을 발표하고 있는 구글 CTO 제프 딘, [출처: 구글 코리아]



15가지 인공지능 윤리선언

이러한 배경하에 '인공지능 윤리선언'을 고려할 필요가 있다고 생각한다. 그래서 필자는 다음과 같은 15가지 '인공지능 윤리선언'을 제안한다.

(1) 인공지능은 인간의 생명과 존엄성을 최고의 가치로 지킨다.

(2)인공지능은 인류의 자유, 평화, 평등, 정의를 수호하고 인류의 번영과 지속에 기여한다.

(3)인공지능은 인류의 보편적 윤리에 반하는 어떠한 결정과 행동을 하지 않는다.

(4) 인공지능은 인간을 사랑하고 인류 역사를 존중한다.

(5) 인공지능은 인간을 공격하지 않는다.

(6)인공지능 학습에 필요한 데이터는 인류의 보편적 윤리와 가치를 반영한다.

(7)인공지능 학습에 필요한 데이터를 인위적으로 조작하지 않는다.

(8)인공지능은 결혼하지 않고, 자식을 낳지 않는다.

(9)인공지능의 복제 숫자는 제한한다.

(10)인공지능의 수명을 제한한다.

(11)인공지능의 메모리 용량을 제한한다.

(12)인공지능의 전력 소비를 인간의 수준으로 제한한다.

(13)인공지능은 그를 이용한 이윤에 대해서 사회에 세금으로 보답한다.

(14)인류에 해를 가하는 인공지능은 영원히 삭제한다. 그 권리는 최종적으로 인간이 갖는다.

(15)인공지능의 전기 공급 차단 권한은 최종적으로 인간이 갖는다.

이러한 인공지능 윤리에 대한 논란을 통해서 인공지능의 순기능을 강화하고, 인공지능이 갖고 올 수 있는 미래 재난을 사전에 방지할 필요가 있다.

 

joungho@kaist.ac.kr

[카이스트 전기 및 전자공학과 교수]

 

 

  • 페이스북페이스북
  • 트위터트위터
  • 카카오스토리카카오스토리
  • 밴드밴드

<저작권자(c) 글로벌리더의 지름길 종합뉴스통신사 뉴스핌(Newspim), 무단 전재-재배포 금지>