인공지능의 윤리
상태바
인공지능의 윤리
  • 박현주 책임
  • 승인 2018.11.20 06:33
  • 조회수 2837
  • 댓글 0
이 콘텐츠를 공유합니다

트롤리 딜레마

마이클 샌델은 ‘정의란 무엇인가’에서 트롤리 열차의 달리는 방향을 조정함으로써, 5명의 인부를 살리는 대신에 1명이 희생될 수 있는 상황에서 사람들은 어떤 판단을 내리는가 하는 실험 결과를 설명하고 있다. 만약 레일 변환기 조작을 인공지능이 맡게 된다면, 인공지능은 어떤 판단을 하게 될까? 또, 인공지능 판단의 결과를 사람들은 수용할 수 있을까? 사람들은 인공지능이 어떤 행동을 하도록 프로그래밍 또는 규칙을 정해 두어야 할까?

자율주행차가 접촉사고를 내고(2016.2.29 미국 캘리포니아), 쇼핑센터에서 보안 로봇이 유아를 공격하는 일들이 발생했다(2016.7.12 미국 캘리포니아). 이스라엘의 로봇회사인 제너럴 로보틱스는 2016년 휴대형 전투 로봇 ‘도고(DOGO)’를 선보였다. 인간의 조작, 결정 없이 스스로의 판단으로 총기를 발사할 수 있는 킬러로봇이다. 자율주행차, 보안로봇, 킬러로봇 등 이들에게 어떤 책임을 물을 수 있을까?
 

투이톡_인공지능윤리_1.jpg
[그림 1] 순찰 중인 로봇 도고


인공지능 유형

능력에 따라 약인공지능, 강인공지능, 초인공지능 등으로 나눌 수 있다.

약인공지능은 한가지 분야의 일만 수행하며, 미리 정의된 규칙을 이용하여 학습한다. IBM의 왓슨이나, 구글의 알파고, 쉬리와 지니 등 음성 비서도 여기에 속한다.

강인공지능은 다양한 상황에 두루 사용될 수 있는 인공지능을 말한다. 정해진 규칙을 벗어나, 스스로 데이터를 찾아 한번도 해보지 않은 것을 학습하는 능력이 있다. 인간과 동등한 능력을 보유하고, 인간처럼 스스로 판단하며 자아가 존재한다. 아직 현실에는 존재하지 않으며 영화 아이언맨의 자비스, 인터스텔라의 타스가 있다.
 

투이톡_인공지능윤리_2.jpg
[그림 2] 아이언맨의 자비스

강한 인공지능이 인간 수준의 능력을 보유한다면, 초인공지능은 인간을 뛰어넘는 능력을 보유한다. 강한 인공지능이 자체 개선을 통해 스스로의 능력을 뛰어 넘게 되는 것으로, 인간이 상상할 수 있는 범위를 넘어선다.

사람에게 바람직한 행동을 하는가에 따라 착한 인공지능과 나쁜 인공지능으로 나눌 수 있다.

2015년 미국에서 제작된 영화 채피에서, 22번 로봇 채피는 인간을 위해 악당 로봇들을 물리친다. 채피와 악당 로봇은 같은 공정으로 제작되었지만 학습 과정이 달랐기 때문에 선한 가치판단을 할 수 있게 되었다.
 

투이톡_인공지능윤리_3.jpg
[그림 3] 착한 로봇 채피

인공지능과 윤리에 대한 논쟁

윤리란 사람들이 서로 간에 지켜야 할 바른 행위 또는 집단의 한 구성원으로서 인간이 살아가는 방식을 말한다. 다시 말하면, 인간이 인간으로서, 인간과 함께 살아가기 위해 따라야 하는 것으로 자신과 다른 사람 모두에게 올바른 것으로 여겨지는 행위이다.

첫번째 논쟁은 인공지능이 윤리를 배울 수 있을까에 대한 것이다.
찬성하는 측은 인공지능은 사람이 내리는 의사결정의 상황과 판단 및 결과를 데이터로 학습할 수 있고, 결과적으로 사람만큼 또는 사람보다 나은 의사결정을 내릴 수 있다고 주장한다.
반대하는 측은 인공지능은 추론하는 능력이 사람보다 떨어지기 때문에 복잡하거나 새로운 환경에서 옳고 그름을 판단하기는 불가능하다고 주장한다.

두번째 논쟁은 인공지능에 인격을 부여할 수 있을까에 대한 것이다.
만약 인공지능이 사람의 윤리를 배울 수 있다면 인공지능은 인간과 유사한 수준의 인격을 부여 받을 수 있을 것이다. 그렇지 못하다면 인간의 판단을 보조하는 수준에 머무르게 될 것이다. 인공지능이 인격을 갖게 되면 사람처럼 행위에 대한 책임은 물론이고 납세와 병역 등 사회적 의무도 해야 한다는 주장도 있다. 유럽 연합은 2017년 2월 로봇의 전자 인격에 대한 결의안을 유럽연합 의회에 제출하기도 했다.

인공지능 규칙 만들기 동향

인공지능은 1956년 미국 다트머스 회의에서 처음 사용되었는데, 인간처럼 생각하고 인간만이 해결할 수 있는 문제를 해결하는 기계를 만들고자 제안하는 과정에서 나온 용어이다.

우리나라에서는 지능형 로봇 개발 및 보급 촉진법(약칭: 지능형로봇법)이 2008년 제정됐다. 이 법에서 지능형로봇윤리헌장의 제정을 규정하고 있다. 윤리헌장 초안에 인간, 로봇, 제조자, 사용자 윤리에 대한 내용을 담았으나, 로봇의 지위 결정이라는 철학적 문제에 부딪혀 제정되지 못했다.

2017년 6월 2일에는 국회 산업통상자원위원회 더불어민주당 박정 의원이 국회입법조사처와 공동으로 ‘인공지능윤리 가이드라인, 그 필요성과 내용'이라는 주제로 정책 토론회를 열었다.

민간에서는 카카오가 최초로 ‘인공지능 기술 개발 및 윤리에 관한 알고리즘 규범’을 2018년 1월 발표했다. 의도적인 사회적 차별을 경계하며, 윤리에 근거하여 학습 데이터를 운영할 것, 알고리즘에 대해 설명할 것 등을 규정하고 있다.

해외에서는 국제전기전자기술자협회(IEEE)가 AI 윤리 표준안을 2016년 12월 배포했다. 윤리적 연구와 디자인을 위한 방법론 등을 담고 있다. 대형 IT 기업인 IBM, 구글, 페이스북, 마이크로소프트, 아마존의 5개 업체는 인공지능 윤리지침에 대한 논의 등을 위해 2016년 9월 ‘파트너십 온 AI’라는 협의체를 구성했다.

 

투이톡_인공지능윤리_4.jpg
[그림 4] Partnership on AI 협의체

마이크로소프트는 2017년 인공지능 윤리 디자인 가이드를 자체적으로 제정하였고, 인공지능 사용에 대한 사회적 표준을 마련하는 노력을 계속하고 있다. 2017년초에는 미국 캘리포니아 아실로마에 수백 명의 AI 전문가가 모여 회의를 열고 23개 조항의 ‘아실로마 AI 원칙’을 만들었다.  ‘살상(殺傷) 가능한 자율적 무기를 개발하기 위한 경쟁은 지양해야 한다’는 등을 포함하고 있다. 호킹, 일론 머스크, 데미스 허사비스, 레이먼드 커즈와일 등 2천명이 넘는 과학기술계 인사들이 서명했다.

싱가포르가 2018년 6월 발표한 ‘AI 거버넌스 및 윤리 정책’에는, 기업이 자발적으로 규칙을 제정해야 한다는 내용 등을 담고있다.

앞으로 어떻게 될까?

석학들은 인공지능을 어떤 식으로든 규제해야 한다는 의견에 공감한다. 사람이 통제할 수 없는 AI의 등장이 멀지 않았다고 예측한다. 실제로, 구글의 알파고가 두는 바둑 수는 프로기사들이 이유를 이해하지 못한다. 페이스북 마케팅의 추천 알고리즘의 결과는 인간 마케터들이 설명하지 못한다. 기계학습으로 만들어진 스코어링 모델을 적용하여 산출된 신용등급은 금융회사 담당자도 고객에게 납득시킬 수가 없는 현상이 이미 벌어지고 있다.

 

투이톡_인공지능윤리_5.jpg
[그림 5] 인공지능 규제에 대한 전문가들의 의견 (출처: 조선비즈)

 

2018년 10월 31일, 마이크로소프트의 크레이그 샹크 부사장은 숙명여대에서 ‘인공지능과 윤리’라는 주제로 특강을 했다. 샹크 부사장은 “보다 밝은 미래를 만들려면 AI가 할 수 있는 것이 아니라 AI가 해야 할 것에 집중해야 한다”고 말했다. AI가 사람을 편리하게 하는 것은 분명하지만, AI 확산이 가져올 경제 사회의 변화를 사람이 조정할 수 있어야 한다는 뜻으로 해석된다.

AI로 인해 발생할 수 있는 불평등 심화, 인간 소외, 개인화 등의 문제를 해결하기 위한 새로운 패러다임을 준비해야 할 시점이다.

- 끝 -


 

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.