[이종호의 포스트 펜데믹 로드맵-54] 인공지능 로봇의 딜레마
[이종호의 포스트 펜데믹 로드맵-54] 인공지능 로봇의 딜레마
  • 이종호 한국과학기술인협회장
  • 승인 2022.07.30 06:44
  • 댓글 0
이 기사를 공유합니다

인공지능 기술이 발전하자 가장 먼저 제기된 것은 인공지능 기술에 대한 인간의 역할과 통제력의 관계가 어떻게 되느냐이다. 그동안 초첨단화된 시스템이 어떠한 의사결정을 내려야 하는 경우 일반적으로 인간이 의사결정 과정에 관여하거나 최종적인 의사 결정자로 역할을 수행했다.

그러나 초첨단화의 수준이 고도화되면서 암묵적으로 또는 경우에 따라 인간이 의도적으로 배제되는 상황에까지 이르면서 기계에 의한 판단이 과연 인간 사회의 가치와 일치하는지 확인해야 할 필요가 등장한 것이다.

영화의 소재로 자주 등장하는 범죄자가 숨어 있는 곳에 다른 시민들이 인근에 있음에도 드론으로 공격하거나 사격하는 경우, 자율주행 자동차가 보행자를 피하려고 다른 차량과 충돌하거나 승객을 위험에 빠지게 할 수 있는 경우들이 제기된다.

이런 문제가 더욱 큰 주목을 받는 것은 인공지능이 자율적인 의사결정을 하는 시스템으로서 자율주행 자동차, 인공지능 스피커, 로봇처럼 실체적인 기계뿐만 아니라 자동화된 정보처리 시스템까지 포함될 수 있으므로 파급효과가 기하급수적으로 늘어날 수 있기 때문이다.

인공지능 기술이 도입되기 전의 정보시스템은 모든 정보처리의 의사결정 과정이 인간들의 설계로 이루어졌기 때문에 정보시스템은 단순히 그 과정을 재현하는 것으로 충분했다. 그러나 인공지능 기술이 도입된 이후의 정보시스템에서 정보처리의 의사결정 과정조차 스스로 구성하고 자율적인 의사결정이 가능하다는 점이다.

문제는 이러면 기계의 판단이 우리 사회의 윤리적 판단이나 가치 시스템과 일치할 수 있느냐이다. 기존의 윤리와 도덕에서 전통적인 책임은 인간을 대상으로 한다. 개인 또는 집단이 타인 또는 타 집단에 대해 윤리적이고 도덕적인 규범과 기준에 따라서 도덕적 의무를 지닌다는 윤리적 개념이다.

그런데 이런 보편적인 개념으로 생각되는 내용을 인공지능 기술 또는 인공지능 시스템에 곧바로 적용하는 것조차 간단하지 않다는 점이다. 인공지능 시스템의 작동 및 활용의 과정에서 실제로 다양한 기술적 요소들이 필수적으로 결합된다. 바로 이러한 조건들이 책임의 부과와 책임의 주체에 대해 상황을 복잡하게 만든다. 인공지능 시스템의 작동에는 빅데이터, 사물인터넷, 클라우드 등이 개입하기 때문이다.

학자들은 ‘책임’과 ‘책무’에 대한 정의가 필요하다고 주장한다. 기업의 경우 ‘기업의 사회적 책임’과 ‘기업의 사회적 책무’가 항상 같은 수준으로 움직이는 것은 아니다. 책임에는 자의식이 수반되며 궁극적으로는 행위를 수행한 주체인 행위자에 초점과 중심을 맞춘다. 반면에 책무는 인간 이외의 경우에 작용하는 것으로 설명되기도 한다. 물론 일반적으로 책임과 책무가 함께 사용될 수 있다고 설명된다.

인공지능의 여파로 어떤 사고가 발생하였을 때 이를 적절하게 설명하기 어려울 수도 있으며 설계 또는 제작 시점에서 전혀 예측지 못한 결과들이 종종 나타난다. 특히 처음부터 개별 행위자의 행동이나 결정을 사후적인 결과로 나타난 사건과 사고를 명백한 인과적인 관계로 연결 고리를 밝히는 것은 만만치 않은 일이다.

더불어 개별 행위자가 자신의 선택이나 행동이 앞으로 초래할 미래의 가능한 결과들을 예견한다는 것도 어려운 일이다. 이러한 상황에서 책임 문제를 인간에게만 한정하는 경우 오히려 책임 공백이 발생할 수도 있다는 지적이다. 이는 바람직하지 못한 부정적인 결과가 발생했음에도 불구하고 책임지는 주체가 없는 경우를 의미한다.

인공지능과 연관된 윤리 문제는 수없이 많이 있다. 가장 큰 지적은 인공지능 알고리즘의 인종 편향성이다. 얼굴 인식 인공지능의 경우 흑인이나 동양인보다 백인을 더 잘 인식하며 외모를 평가할 때도 상대적으로 백인을 선호하는 경향이 농후하다. 이는 사실 어느 정도 이해가 되는데 대부분의 학습 데이터가 해당 지역에서 쉽게 구할 수 있는 백인 사진이기 때문이다.

학자들은 인공지능의 윤리학을 두 가지 관점으로 나누어 설명한다. 첫째는 인공지능을 어떤 윤리적 가치에 의해 지배되는 존재로 만드냐이다. 여기에는 윤리적 가치 지향을 실제로 어떻게 구현할 수 있을 것인가에 대한 문제를 포함한다.

인공지능의 설계는 자율성과 윤리적 민감성(감수성)으로 분류될 수 있다. 과거에는 인간과 비슷한 수준의 지성적 자율성을 발휘하는 물체 즉 로봇을 개발하는데 역량을 경주했지만 일부 분야에서 인공지능의 역량이 인간의 능력을 초월할 정도가 되었으므로 인공지능이 인간과 공존하기 위해서는 인공지능이 지녀야 하는 윤리적 감수성도 필요하다는 주장이다.

여기에서 학자들은 인공지능이 갖게 될 도덕적 지위에 대해 주목한다. 도덕적 지위 문제는 행위자와 피동자의 두 가지 차원에서 논의될 수 있는데 여기에서 강조되는 것은 인공지능 로봇이 전통적으로 인간에게만 귀속되었던 윤리적 행위자의 지위를 가질 수 있는가이다. 그런데 행위자가 되기 위한 전통적 요건은 이성, 의식, 지향성, 자유의지 등이다.

엄밀히 말하면 인공지능은 로봇의 지능적인 소프트웨어 부분을 일컬으며 로봇은 하드웨어와 소프트웨어 모두를 포함하여 자율적인 기계를 말한다. 여기에서 인공지능을 로봇의 머리라고 생각할 수 있으므로 논제의 대상은 지능적인 능력을 갖춘 로봇을 의미한다.

여기에서 인공지능의 윤리적인 문제란 인공지능 로봇 간의 사회적인 윤리가 아니라 인공지능 로봇과 인간들 간의 윤리이므로 이 역시 인간들만의 윤리와는 다른 측면을 가진다. 학자들은 이런 방식의 윤리는 서로 다른 문화를 가진 인간들 간의 윤리적인 문제가 갈등을 일으키기도 하지만 가축이나 반려동물과 인간들 간의 윤리가 필요하다고 강조되는 차원을 보면 이해가 가는 일이다.

이는 인공지능 로봇이 충분히 자율적이고 지능적인 존재가 되어 인간과 사회를 이루고 살아야 하는 사회가 될 때 더욱 중요성을 부여받는다. 즉 가축과 반려동물과 달리 인공지능 로봇은 인간이 인공적으로 만들었지만 인간의 지능적 능력을 독자적으로 가지게 되면 발생할지 모르는 초유의 사태에 대한 윤리적인 문제가 대두된다는 뜻이다.

윤리는 국어사전에서 사람이 마땅히 행하거나 지켜야 할 도리로 풀이된다. 도덕은 사회 구성원들이 양심, 사회적 여론, 관습 따위에 비추어 스스로 마땅히 지켜야 할 행동 준칙이나 규범의 총체이다. 강제력을 갖는 법률과 달리 각자의 내면적 원리로 작동하며 종교와 달리 초월자와의 관계가 아닌 인간 상호관계를 규정한다.

그런데 윤리와 도덕이란 용어가 일상적으로는 상호 호환적으로 사용된다. 그런데 윤리적인 것이 항상 도덕적인 것이 아닐 수 있고 그 반대도 마찬가지다. 박충식 박사는 이 문제에 관해 매우 이해가 쉬운 예를 들었다.

미국 마피아 조직원들 사이에 만들어진 침묵의 수칙 즉 오메르타(Omerta)의 경우 경찰로부터 범죄자를 보호하는 데 이용된다. 윤리적으로는 조직의 행동 규칙을 바르게 따른다는 것이지만 도덕적인 관점에서는 그릇된 것일 수 있다는 것이다. 도덕적 행위도 비윤리적일 수 있다. 의뢰인이 유죄라는 것을 법정에서 말하는 변호사는 정의를 실현하려는 도덕적 욕구에서 행동하는 것일 수 있지만 이것은 변호인-의뢰인 사이의 비밀 유지 특권을 위반하기 때문이다. 한마디로 심각한 비윤리적 행동이라는 것이다.

여하튼 인공지능과 인간의 상호작용이 윤리적 측면을 갖는다고 할 때 곧바로 제기되는 질문은 반드시 인공지능이 사람과 동등한 윤리적 고려대상이어야 하는가이다. 즉 인공지능이 사람과 같게 취급될 수 있는 존재일 때만 인공지능의 윤리학이 가능한가?

이 문제에 관한 한 어느 정도 참조 예는 있다. 현재 지구의 생태환경에 대해 인간의 책임을 논하기도 하고 인간과 동등하다고 볼 수 없는 동물에 대해 잔인한 행동을 한 사람들을 윤리적으로 비난하거나 법적으로 처벌하기도 한다. 이런 면에서 인간이 인간과 윤리적으로 동등한 존재가 아니더라도 인공지능의 ‘윤리적 ’측면을 논의할 가능성은 열려있다고 볼 수 있다.

문제는 윤리적 측면의 구체적인 내용이 무엇이냐인데 학자들은 간명하게 대답한다. 더 많은 논의가 필요하다는 것이다. 이는 윤리적인 문제에 대해 회피할 것이 아니라 가능한 한 윤리적인 문제를 적극적으로 다뤄나가되 차근차근 현명한 해결책을 찾아나가야 한다는 것이다.

사실 일부 학자들은 인공지능의 윤리적 문제를 현재의 기존 윤리적 직관과 제도적ㆍ법률적 처리 방식을 확장하는 방식으로 해결할 수도 있다고 주장한다. 그러나 윤리적인 문제를 간단하게 칼로 무를 베듯 정리하는 자체가 만만치 않은데 이는 수많은 분야마다 첨예하고 복잡한 난제들이 도사리고 있기 때문이다.

필자소개
고려대학교·대학원 졸업, 프랑스 페르피냥대학에서 공학박사 학위 및 과학국가박사 학위
한국과학기술연구원(KIST), 한국에너지기술연구원에서 연구 활동
저서: 「침대에서 읽는 과학」, 「4차 산업혁명과 미래 직업」, 「로봇은 인간을 지배할 수 있을까?」, 「유네스코 선정 한국의 세계문화유산」, 「유적으로 보는 우리 역사」 등 100여권



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 송파구 올림픽로35가길 11 (한신잠실코아) 1214호
  • 대표전화 : 070-7803-5353 / 02-6160-5353
  • 팩스 : 070-4009-2903
  • 명칭 : 월드코리안신문(주)
  • 제호 : 월드코리안뉴스
  • 등록번호 : 서울특별시 다 10036
  • 등록일 : 2010-06-30
  • 발행일 : 2010-06-30
  • 발행·편집인 : 이종환
  • 청소년보호책임자 : 이석호
  • 파인데일리 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2022 월드코리안뉴스. All rights reserved. mail to wk@worldkorean.net
ND소프트