인공지능(AI), 인간의 선택을 묻다

2018. 9. 3. 07:50UX 가벼운 이야기
김성경(bible)


인공지능(AI) 시대는 꾸준히 대두되어왔으며 세계 각국은 AI가 바꿔놓을 부와 노동의 미래를 예견하는 데 온 역량을 투입하고 있습니다. 지난 8월 15일 저희는 시사IN에서 주최하는 2018 인공지능 콘퍼런스에 다녀왔습니다. 콘퍼런스에서 인상 깊었던 두 교수님의 강연을 공유하려 합니다.


로봇 윤리 : 원칙에서 정책으로 - Alan Winfield

작성자 : 김성경

세계적인 로봇 권위자인 영국 UWE Bistol 로봇 윤리 교수이자 로봇 자동화세 주창자인 '앨런 윈필드'의 강연을 듣고 왔습니다. 이번 내용에서는 로봇 윤리에 관한 문제점과 그 문제를 해결하려는 노력에 대해 공유하려 합니다.



AI의 윤리적 문제

1. 운전자와 보행자의 목숨을 앗아간 무인 자동차

자율주행모드 사고 (출처: Florida traffic crash report)


2016년 한 운전자가 자율주행상태로 운전을 하던 중 사고로 사망한 사례가 있습니다. 자율주행모드 자동차가 하얀색의 트럭을 하늘과 같다고 착각하여 트레일러를 들이받은 것이지요. 테슬라는 운전에 집중하지 않은 운전자의 잘못이라고 했지만, 앨런 교수는 입증되지 않은 자율주행기술을 실제 환경에서 인간을 대상으로 안전을 테스트한다는 자체가 비윤리적이라고 말했습니다.

이 외에도 올해 3월 자율주행 우버 차량이 보행자를 인지하지 못해 보행자가 사망한 사례가 있습니다. 정확한 원인은 밝혀지지 않았고 아직 조사하고 있습니다. 여기서 충격적인 사실은 정부가 ‘Uber’라는 회사와 비밀스럽게 테스트를 하고 있었다는 것입니다. 시민들은 자신들이 사는 곳에서 테스트가 이뤄지는지조차 몰랐습니다. 과학자들은 비윤리적인 실험을 할 수 없습니다. 그러나 로봇의 경우 앞서 말한 두 사례와 같이 비윤리적인 실험들이 행해지고 있습니다.


2. 로봇과 자동화로부터 생산되는 이윤 배분 문제

2014년 영국 옥스퍼드대 딜로이트의 일자리 미래 보고서에 따르면 영국 내 현재 일자리의 35%는 20년 안에 AI에 의해 대체될 것이라 합니다. 이에 대한 대책으로 2015년 앨런 교수는 로봇과 자동화에 따른 실업 위기에 대비하기 위한 '자동화세'를 제안했습니다. '자동화세(Automation Tax)'란 로봇과 인공지능의 자동화로 작업장 일자리가 축소될 해당 기업에 세금을 부과하여 실직자를 지원하는 재원을 마련하자는 취지의 안입니다. 로봇의 발전은 시민들이 지불한 세금으로 이루어졌기 때문에 그로부터 생산되는 이윤을 나눠 갖는 것은 당연하다는 것입니다. 뿐만 아니라 부를 나눠 갖는다고 했을 때 모든 사람들이 공평하게 나누어 가질 수 있는지 또한 문제점으로 꼽았습니다.


3. 인간을 닮아가는 로봇의 겉모습

앨런 교수는 똑똑하지 않은 로봇이 사람과 같은 모습을 하는 것 또한 문제가 된다고 말했습니다. 시간이 흘러 인간과 비슷한 정도의 지능을 갖추지 않는 이상 현재의 지능에서는 신체와 두뇌 간의 부조화가 발생하기 때문에 인간을 닮은 로봇은 만들면 안 된다고 주장했습니다. 올해 초 한창 이슈였던 인공지능 로봇 '소피아'가 지난 10월 사우디아라비아 정부로부터 시민권을 부여받은 사례를 들며 로봇이 인간의 모습을 가졌을 때 발생할 수 있는 문제들의 우려를 표했습니다.



윤리적 문제점들을 해결하기 위한 노력

1. 높은 수준의 투명성 지향

높은 수준의 투명성이 필요하다고 앨런 교수는 말했습니다. 투명성이 보장된다면 사람들은 안심하게 될 테니까요. 항공기로 예를 들겠습니다. 항공기에서 사고가 발생하면 사고 조사 리포트를 통해 언론에 공개됩니다. 시민들은 투명한 조사 결과를 보며 사고가 정확하게 조사되고 있다는 사실만으로도 안심하게 됩니다. 항공기가 모든 주행 기록을 가지고 있는 것처럼 혹은 자동차에 블랙박스가 있는 것처럼 자율주행차량, 일부 의료진단 AI 등 AI 로봇도 마찬가지여야 된다고 말합니다. 그뿐만 아니라 AI 내부의 의사결정의 log도 기록되어야 하며 이렇게 된다면 고령 인구도 로봇이 어떠한 일을 수행할 때 '왜' 그렇게 행동하는지 의사결정의 이유를 알게 되면 신뢰도가 올라갈 수 있습니다.


2. 로봇의 윤리 문제를 다룬 공식 가이드라인(BSI) 발표

'영국표준연구소(BSI:British Standards Institute)'는 로봇의 윤리문제를 다룬 공식 가이드라인을 발표했습니다. 이 가이드라인에서는 로봇 비인간화, 환경적 문제 등 20여 개의 위험을 규명하고 있으며 어떻게 하면 피해를 최소화할지 방법을 제시합니다. 이 표준은 로봇 업계 및 시스템 관리자와 설계자를 위해 만들어졌으며 과학자나 철학자, 윤리학자뿐만 아니라 로봇, 제조 및 엔지니어링 산업 내 지식인들이 모여 토론을 통해 개발하였다고 합니다.

※ 참가 기관의 예 : Bristol Robotics Laboratory, University of Liverpool, Consumer and Public Interest Network (CPIN), Health and Safety Executive (HSE), University of Sheffield, Knowledge Transfer Network (KTN) and AVIAN Technologies.



로봇 실험을 통한 윤리적인 딜레마 사례

도로를 걸어가는데 도로에 큰 구멍이 있고 그 위를 누군가 핸드폰을 보며 지나가는 것을 상상해봅시다. 누구나 그 사람을 구하려 할 것입니다. 왜 구하려 할까요? 착한 사람일 수도 있겠지만, 사람은 '미래'를 '예측'할 수 있기 때문입니다. 앨런 교수는 로봇에게 이러한 인지적 프로세스를 적용하여 미래를 예측할 수 있도록 설계한 실험을 진행했습니다.


위의 이미지를 설명해 드리자면, H-robot이 위험한 구멍(Hole)을 향해 가는 사람이고 A-robot은 위험을 막아야 하는 로봇입니다. 실험 결과 로봇은 어떤 결정을 내렸을까요? H-robot이 Hole에 못 가도록 충돌을 만든 후에 원래 로봇이 가려던 곳(goal)을 향해 갔습니다. 매우 간단하죠? 이번에는 앨런 교수는 A-robot 윤리적 딜레마 상황에 부닥치도록 했습니다.


구멍으로 가는 사람이 한 명일 때는 매번 사람을 살릴 수 있었지만, 두 명의 사람이 구멍으로 향할 때 A-robot은 어쩔 줄 모르는 상태에 빠졌습니다. 가끔 한 명을 살리기도 했지만 결정 장애를 가진 로봇은 대부분 두 명의 사람 모두 살리지 못했습니다. 즉, 이 실험을 통해 알 수 있는 것은 로봇은 윤리적인 결정을 할 수 없으며 결국 로봇의 행동도 인간의 선택에 따라 결정되며 인간의 선택에 따라 인간에게 돌아가는 혜택이 결정된다는 것입니다.



마치며

AI에 관한 다양한 이슈를 접해왔지만, 이번 강연을 통해 ‘윤리’관점으로 새롭게 생각해보는 시간이었습니다. 현재 AI는 효율적인 기능 수행뿐 아니라 인간과 감정적으로 상호작용하는 수준에 이르고 있습니다. 아주 먼 미래에는 내 옆을 항상 지켜주고 관리해주는 AI가 항상 상주하여 '1인 1 AI'라는 말이 나올 수 있지도 않을까요? 그렇다고 했을 때 앞으로의 AI의 윤리적 관점은 점점 더 중요해질 것 같습니다. '원칙'으로 정의되는 것들이 '정책'이 되는 그날을 기다려봅니다.



인공지능과 윤리 - Ronald Arkin

작성자 : 박정현

미 조지아 공대의 로날드 아킨 교수님은 ‘킬러 로봇’이라고도 불리는 전쟁현장의 로봇에 대한 이슈를 들려주었습니다.

전쟁을 겪어보지 않은 필자로서는 상당히 흥미롭고 생소한 주제였는데요, 현실의 삶을 살면서도 제가 늘 외면하는 현실 중의 하나는 아마도 '지금 이 순간에도 어디선가는 전쟁이 일어나고 있다'일 것입니다. 아킨 교수도 말했듯, 전쟁은 일어나서는 안 되지만 계속해서 일어납니다.

군사적 관점에서 로봇은 왜 조명을 받을까요? 전쟁이 계속된다는 전제에 근거하여, 로봇이 대신 일 하여 필요한 병사 수를 감축할 수 있기 때문입니다. 사람은 밥도 먹고 화장실도 가는데, 로봇은 더 효율적으로 사람들을 대신하여 일할 수 있습니다. 또 자율주행차, 드론, 무인 비행기 등을 이용할 수도 있고요. 사람이 감지할 수 없는 것들을 감지하는 등, 기술을 통해 전투력을 강화할 수도 있습니다.

여기서 우리는 발생 가능한 문제들을 봐야 합니다. 킬러 로봇이라고 명명되는 '치명적 자율 무기'가 있습니다. 삼성테크윈 쪽에서도 개발했지만 스스로 결정을 내리도록 만들어진 로봇들입니다. 타겟을 감지하여 공격하는 로봇이죠. ‘자율’무기란, 인간이 프로그래밍한 룰에 기반하여 결정하고 행동하는 로봇입니다. 결국, 방아쇠를 당기는 결정은 사람이 하는 것이죠.

따라서 윤리적 관점에서 우리는 어디까지 인공지능에 결정권을 맡길 것인지에 대해 결정해야 합니다. 로봇 컨트롤 위원회, 국제 인권 감시 기구 등 여러 집단이 다양한 목소리를 내고 있습니다. 아킨 교수는 윤리적 관점에서의 법을 찾아 제한된 범주를 가지고 로봇이 전쟁에 이용되도록 하자고 주장했습니다. 일례로, 교전법이라는 것이 존재하고, 이는 군인들이라도 공동묘지에 있으면 공격해서는 안 된다는 등의 내용을 포함합니다. 아킨 교수가 가장 우려하는 바는, 무고한 민간인들의 죽음이었습니다. 어떤 방식으로든 전쟁 과정에서 민간인의 희생을 줄이기 위해 기술적 차원의 검토가 필요하고, 가능하다면 기술을 사용해 피해를 적극적으로 줄여야 한다는 것입니다.

과거에는 영토를 확장하기 위해, 남이 가진 것을 빼앗기 위해, 또 권력의 쟁탈을 위해 물리적인 전쟁을 벌였습니다. 이제는 세계의 많은 나라가 먹고 사는 데에 문제가 없고, 영토의 경계가 안정화 된 듯합니다. 그러나 정치적, 외교적 이유로 전쟁의 가능성을 닫지 않습니다. 우리는 현대 사회에서 실제적인 사살, 실제적인 폭력과 물리적인 무너트림이 없는 전쟁을 어떻게 할 것이며, 여기서 로봇이 어떤 역할을 해야 할지 생각하고 결정해야 할 것입니다. 기술에 가속을 붙이기 전에 관점을 가지지 못해 우리 스스로가 망가지는 현상이 일어나지 않기 위해 책임을 가지고 생각해 나가야 할 '현실의 인간으로서의' 의무를 느낀 시간이었습니다.


<참고 기사>

http://dongascience.donga.com/special.php?idx=763

http://www.hankookilbo.com/v_print.aspx?id=29d68d9f4a5142218be55d19b43a6708