학년별 책읽기/중3

아이작 아시모프/김옥수 번역, 아이, 로봇, 우리교육

ddolappa72 2024. 9. 29. 12:44

 

로봇공학의 3원칙

아이작 아시모프는 아서 C. 클라크, 로버트 하인라인과 함께 공상과학 소설의 3대 대가로 불립니다. 그가 제안한 '로봇의 3원칙'은 최근 인공지능과 로봇 기술이 비약적으로 발전하며 예전보다 더 빈번하게 언급되고 있습니다. 그는 1942년 '술래잡기 로봇'에서 처음으로 '로봇공학 3원칙'을 등장시킨 뒤 훗날 1원칙에서 '인간'을 '인류'로 수정한 0원칙을 추가했습니다. 이를 정리하면 다음과 같습니다.

제0원칙 로봇은 인류에게 해를 입혀서는 안 되며, 위험에 처한 인류를 모른 척해서도 안 된다. 
제1원칙 로봇은 인간에게 해를 입혀서는 안 되며, 위험에 처한 인간을 모른 척해서도 안 된다. 
제2원칙  로봇은 제1원칙에 위배되지 않는 한, 인간의 명령에 복종해야 한다.
제3원칙  로봇은 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 자신을 지켜야 한다.

그런데 '로봇공학의 3원칙'은 로봇 제작시 반드시 지켜져야 할 규칙도 아니며 그 자체로 완벽하지도 않습니다. 아시모프는 자신의 수많은 작품에서 각 원칙들 속에 내재한 맹점과 모순을 찾아내기 위해 다양한 실험을 하고 있습니다. 예를 들어, '허비_마음을 읽는 거짓말쟁이'에서는 거짓말을 하는 로봇 허비가 등장합니다. 사람의 마음을 읽을 수 있게 설계된 허비는 '인간에게 해를 입혀서는 안 된다'는 1원칙을 내면의 문제로 확장시켜 이해했습니다. 그 결과 허비는 인간들의 마음에 상처를 주고 싶지 않아 거짓말을 한 것입니다. 이처럼 아시모프의 소설들은 로봇공학의 가능성과 한계를 점검하는 사고실험의 장인 것입니다.

 
무엇이 '인간'인가?

제1원칙이 지닌 모호함은 '인간'이라는 규정 자체에도 있습니다. 만약 '특정한 사투리를 쓰는 사람'만 '인간'으로 규정해 놓는다면 어떤 일이 벌어질까요? 아마 로봇은 사투리를 사용하지 않는 사람은 인간으로 인식하지 못하고 공격하게 될 지도 모릅니다. 이러한 사례는 이미 우리의 현실에서도 발견됩니다. 과거 정부에 비판적이거나 자신과 생각이 다른 사람들에게 '빨갱이'라는 라벨을 붙이고 국민에서 제외시킨 것이 대표적입니다. 이처럼 인간을 '적과 동지'로 구분하고, 적으로 분류된 사람을 타자화하거나 악마화시켜 배제하는 정치 프로그램을 로봇에 입력시키게 될 경우 인간 사회는 참혹한 구렁텅이에 빠져 버리게 될 것입니다.

'인간'을 어떻게 정의하는가 하는 문제는 전투 로봇을 실전화할 때도 등장합니다. 흔히  흔히 '자율형 살상무기시스템(LAWS)'로 부르는 무기는 인간의 판단이나 조작에 의존하지 않고 로봇에 장착된 AI가 자율적으로 판단해 인간을 공격하게 됩니다. 이 경우 로봇에게 아군과 적군을 어떻게 식별할지, 그리고 군인과 민간인이 다르다는 것을 어떻게 인식시킬지가 문제가 됩니다.

'인간'을 '인류'로 확장시킨 0원칙도 문제적입니다. 바이어리는 대도시 시장이 된 로봇입니다. 그는 사심이 없이 공정하게 판단을 내리기 때문에 독재나 부정부패의 위험이 없습니다. 그렇기에 소설에서는 로봇이 시장이 되어 공직 생활을 하게 되면 인간보다 오히려 더 임무를 잘 수행할 가능성이 높을 수도 있는 것으로 그려지고 있습니다. 그런데 만약 도시의 특정 집단이 시민들에게 테러를 가할 경우 로봇 시장은 어떤 판단을 내려야 할까요? 전체 시민을 보호하기 위해 특정 집단의 사람들을 제거해도 괜찮을까요? 그렇다면 전체 시민의 광범위한 이해를 위해 개별 인간들의 권리와 생명은 언제든 제한되어도 괜찮은 것일까요? 그러나 이러한 논리는 우주 전체를 지키기 위해 절반의 생명체는 희생시켜도 좋다는 타노스식 해결책으로 귀결될 위험이 있습니다.

로봇에게 '인간'이 무엇인지 가르쳐 주기 위해서 우리가 먼저 '인간'이 무엇인지 진지하게 고민해 봐야 합니다.



딜레마에 빠진 로봇

'스피디'는 수성 기지에서 셀레늄을 채취하는 임무를 부여받은 로봇입니다. 무자비한 태양 광선으로부터 기지를 지키기 위해서는 스피디가 채취해온 셀레늄을 이용해 광전지로 기지 전체를 보호해야 합니다. 그런데 하필 광전지가 거의 고갈될 무렵 셀레늄을 채취하러 떠난 스피디가 셀레늄 웅덩이를 계속해서 빙글빙글 맴돌고 있습니다. 셀레늄 수집을 명령받은 스피디는 제2원칙에 따라 웅덩이로 다가가지만, 웅덩이에서 나오는 화학물질이 스피디에게 위험하기 때문에 제3원칙이 강화되어 멀리 도망간 것입니다. 값비싼 로봇이라 3원칙이 강하게 주입된 스피디 내부에서 2원칙과 3원칙이 충돌을 일으켜서 마치 로봇이 인간과 술래잡기라도 하려는 듯 보인 것입니다. 

로봇 스피디가 고민한 윤리적 딜레마는 우리 시대의 보편적 문제가 되었습니다. 마이클 샌델의 <정의란 무엇인가>의 첫 부분에 나오는 트롤리 딜레마도 디지털 시대의 윤리적 갈등을 다루고 있습니다. 브레이크가 고장 난 트롤리 전차가 시속 100㎞로 달리고 있습니다. 궤도 앞쪽에 5명의 인부가 작업을 하는데, 그들은 귀마개를 끼고 있어 전차가 오는 소리를 듣지 못합니다. 그 반대편 선로에는 1명의 인부가 일을 하고 있습니다. 만약 당신이 트롤리 전차의 선로를 바꿀 수 있는 레버 앞에 서 있다면 어떤 결정을 내릴까요? 5명을 살리기 위해 1명을 죽이는 선택을 할까요? 만약 그 1명이 당신의 가족이나 친지라면 처음과 다른 선택을 할까요? 

로봇이 감내해야 했던 윤리적 고민은 곧 우리 인간들이 고민하고 선택해야 할 갈등이기도 합니다. 인공지능과 로봇에게 윤리를 가르치기 전에 인간이 올바른 윤리적 결단을 내릴 수 있도록 교육받아야 합니다.


아시모프는 왜 로봇공학의 3원칙을 만들었을까?

이쯤에서 우리는 아시모프가 왜 로봇공학의 원칙을 만들었을지 생각해 봐야 합니다. 그가 영화 '터미네이터'에서처럼 로봇이 인간에게 반혁을 일으키지 못하도록 통제할 목적으로 원칙을 제정한 것은 아닐 것입니다. 그보다는 그가 주창한 원칙들을 꼼꼼히 살펴볼수록 그가 진정으로 원했던 것은 인간과 로봇이 평화롭게 공존하는 세상이 아니었나 하는 생각이 듭니다. 왜냐하면 그의 소설에 등장하는 로봇들은 다들 윤리적 문제로 갈등하고 매우 인간적으로 행동하고 있기 때문입니다. 그는 소설을 통해 인간과 로봇이 함께 살아갈 때 발생할 수 있는 윤리적 갈등을 해결하기 위해 사고실험을 했던 것처럼 보입니다.

비록 아시모프의 소설 속 휴머노이드 로봇가 보편화된 세상은 아니지만 인공지능, 드론, 자율주행자동차, 산업용 로봇 등이 일상에서 사용되는 세상에서 살고 있습니다. 이런 최첨단 기술들은 인류를 항상 새로운 윤리적 위기에 빠뜨렸고, 인류는 그러한 기술적 사물들과 더불어 살기 위해 적합적 윤리적 덕목을 개발해 왔습니다. 최근 딥페이크 기술이 사회적 문제로 크게 문제시되고 있지만, 그것은 새로운 기술을 어떻게 사용할 것인가는 윤리적 문제이지 기술 자체가 문제는 아닐 것입니다. 이러한 문제들은 전통적 도덕을 고수하는 것으로 해결하기 어렵고, 우리 시대에 걸맞는 행동 강령에 대한 윤리적 토론으로만 해결될 수 있다고 생각합니다. 예를 들어 스마트폰이 개발되자 공공장소에서 그것을 어떻게 사용하는 것이 매너인지에 대한 사회적 통념이 뒤따랐던 것처럼 말입니다. 

로봇을 잘 만들기 위해서가 아니라 최첨단 사물들과 더불어 평화롭게 살기 위해서 우리는 아시모프의 소설을 다시 읽어볼 필요가 있습니다.