Skip to the content

사람 중심 인공지능 윤리가 궁금해

SKT, SK텔레콤, 바른ICT연구소, 인공지능, 인공지능 윤리, AI, 휴머노이드, 휴먼스, humans, 보그맘, 로봇이아니야, 너도인간이니, 절대그이, 인공지능 이슈, 트롤리딜레마, 테슬라, 아마존 AI 채용, 이루다, 테이, 딥러닝, 개인정보보호문제, ICDPPC, 인공지능윤리기준, AI 윤리기준

최근 몇 년 사이 ‘인공지능’을 소재로 한 드라마가 많이 제작되었습니다. 국내에서는 ‘보그맘(2017)’, ‘로봇이 아니야(2017)’, ‘너도 인간이니?(2018)’, 절대그이(2019)’ 등의 드라마가 방영되었고, 영국 드라마 ‘휴먼스(Humans, 2015~2018)’의 인기는 상당했습니다. 가볍게 웃으면서 볼 수 있는 드라마도 있지만, 휴머노이드*와 인류의 공존에 대해 경고 메시지를 던지는 콘텐츠들도 있었습니다.

*휴머노이드(humanoid, 인간형 로봇)
인간의 형태를 모습으로 한 로봇을 의미합니다. 형태뿐만이 아니라, 인간과 같은 인식기능, 운동기능을 구현하기 위해서는, 로봇기술의 총체적 발전이 궁극을 이루어야 하기 때문에 가장 고난도의 지능형 로봇이라 할 수 있습니다.

인공지능, 이슈의 중심에 서다!

SKT, SK텔레콤, 바른ICT연구소, 인공지능, 인공지능 윤리, AI, 휴머노이드, 휴먼스, humans, 보그맘, 로봇이아니야, 너도인간이니, 절대그이, 인공지능 이슈, 트롤리딜레마, 테슬라, 아마존 AI 채용, 이루다, 테이, 딥러닝, 개인정보보호문제, ICDPPC, 인공지능윤리기준, AI 윤리기준

인공지능은 웹페이지 알고리즘에서부터, 챗봇 상담 서비스, 스마트홈 시스템, 자율주행에 이르기까지 우리 일상의 곳곳으로 확산하고 있습니다. 우리는 인공지능이 가져올 낙관적인 변화를 기대하지만, 인공지능이 가지고 있는 여러 가지 이슈 때문에 보다 신중하게 접근해야 할 필요가 있습니다.

2015년 구글 포토의 고릴라 사건을 아시나요? 아프리카계 미국인 재키 앨신이 자신의 흑인 여성 친구 사진을 찍어 구글 포토에 올리자 ‘고릴라’라는 태그가 붙는 사건이 발생했습니다. 인공 지능 얼굴 인식 기능이 흑인 여성을 고릴라로 인식해 회사 측이 사과 성명을 내는 사태가 벌어지기도 했습니다. 흑인 여성을 고릴라로 인식하는 오류를 범한 학습 데이터 편향 문제(data biased)는 인공지능의 인종차별 가능성을 경고합니다.

도덕적 가치에 관한 유명한 고전 실험인 ‘트롤리 딜레마(Trolley Dilemma)’* 상황을 자율주행차 인공지능 알고리즘에 적용했을 때 어떤 일이 발생할까요? 과연 결과에 대한 책임을 인공지능 ‘기계’에 물을 수 있을까요?

*트롤리 딜레마(Trolley Dilemma)
멈출 수 없는 트롤리 전차가 있습니다. 그대로 달리다 간 선로에 묶여 있는 다섯 명의 사람이 죽게 됩니다. 선로를 바꿀 수 있다면 다섯 명의 사람을 살릴 수 있습니다. 그러나 다른 선로에 있던 한 명이 죽게 됩니다. 이러한 상황에 여러분이 선로를 바꿀 수 있는 전환기 옆에 있다면 어떠한 선택을 하겠습니까?

의도하지 않았지만 나타나는 문제

SKT, SK텔레콤, 바른ICT연구소, 인공지능, 인공지능 윤리, AI, 휴머노이드, 휴먼스, humans, 보그맘, 로봇이아니야, 너도인간이니, 절대그이, 인공지능 이슈, 트롤리딜레마, 테슬라, 아마존 AI 채용, 이루다, 테이, 딥러닝, 개인정보보호문제, ICDPPC, 인공지능윤리기준, AI 윤리기준

아마존이 개발 중인 AI 채용시스템은 여성 지원자를 차별하는 것으로 드러나 도입이 취소됐습니다. 테슬라 차량은 자율주행 모드에서 교통사고가 발생해 문제가 되기도 했죠. 청소년 대화용으로 만들어졌으나 성차별, 혐오 발언 등의 논란을 일으킨 마이크로소프트의 챗봇 테이(TAY), 최근 유사 사례인 스캐터랩의 ‘이루다’ 등 AI 윤리와 기능에 대한 문제는 계속 발생하고 있습니다.

이러한 사례의 공통점은 “의도하지 않았으나” 활용 과정에서 발생한 문제라는 것입니다. 이는 인공지능의 ‘딥 러닝(deep learning)’이라는 특성 때문입니다. 딥 러닝을 할 수 있다는 것은 의사결정을 할 수 있는 자율성의 수준이 높아진다는 것을 의미하는데요. 이는 AI가 스스로 잘못된 판단을 내리는 등의 사고로 이어질 수 있습니다. 또한, 사고 발생 시 상황이 발생하게 된 메커니즘이 불투명하여 문제로 지적됩니다.

또한, 데이터의 사용에 따른 ‘개인정보보호 문제’도 있습니다. 이러한 문제를 해결하기 위해 개인정보보호 감독 기구 국제회의(ICDPPC)에서는 지난 2018년 인공지능에서의 윤리와 개인정보보호에 대한 선언문을 발표했습니다. 선언문에서는 △공정성의 원칙, △지속적인 관심과 경계, △시스템의 투명성과 명료함, △윤리를 고려한 디자인, △모든 정보 주체에 대한 권한 부여, △편견 혹은 차별의 감소 등 여섯 개의 원칙을 강조합니다.

드라마에서 엿볼 수 있는 인류와 휴머노이드와의 공존

SKT, SK텔레콤, 바른ICT연구소, 인공지능, 인공지능 윤리, AI, 휴머노이드, 휴먼스, humans, 보그맘, 로봇이아니야, 너도인간이니, 절대그이, 인공지능 이슈, 트롤리딜레마, 테슬라, 아마존 AI 채용, 이루다, 테이, 딥러닝, 개인정보보호문제, ICDPPC, 인공지능윤리기준, AI 윤리기준

영국드라마 휴먼스(Humans)는 인류와 휴머노이드가 공존하게 된 과도기 사회를 그리고 있습니다. 이 드라마에서 인상적인 부분은 인간의 미묘한 심리적인 부분을 다루고 있다는 것인데요. 가사 노동 및 육아에 최적화된 휴머노이드에 느끼는 역할의 상실감, 공부를 하지만 휴머노이드보다 못할 것이라는 박탈감 등을 자세하게 묘사합니다.

휴머노이드를 당연하게 받아들이는 어린아이와 그렇지 못한 어른 간 세대의 인식 차이, 고장이 나서 사고를 일으킬 위험이 있지만, 추억을 함께 나눈 자식 같은 휴머노이드의 폐기 문제, 성매매로 사용되는 휴머노이드 등 많은 생각할 거리를 던집니다.

물론 현재 기술로 사람과 닮은 휴머노이드의 개발은 어렵습니다. 하지만, 이 드라마에서 말하는 ‘역할의 상실’과 ‘일자리 대체로 인한 박탈감’ 등의 이슈는 분명 심도 있게 생각해봐야 할 것입니다.

사람 중심의 AI 실현, 인공지능 윤리가 필요해요!

SKT, SK텔레콤, 바른ICT연구소, 인공지능, 인공지능 윤리, AI, 휴머노이드, 휴먼스, humans, 보그맘, 로봇이아니야, 너도인간이니, 절대그이, 인공지능 이슈, 트롤리딜레마, 테슬라, 아마존 AI 채용, 이루다, 테이, 딥러닝, 개인정보보호문제, ICDPPC, 인공지능윤리기준, AI 윤리기준
인공지능은 아직 많은 문제를 가지고 있습니다. 하지만, 큰 잠재력을 지녔다는 점에서 지능정보사회가 우리 미래가 나아가야 할 방향임은 분명합니다. 따라서 장점은 취하되 단점은 최소화 할 수 있는 기준이 필요합니다.

과학기술정보통신부와 정보통신정책연구원에서는 지난 2020년 12월 23일, 사람이 중심이 되는 ‘인공지능(AI) 윤리기준’을 발표했습니다. 3대 기본원칙은 ‘인간성(Humanity)’을 구현하기 위해 인공지능 개발 및 활용 과정에서 1) 인간의 존엄성 2) 사회의 공공선 3) 기술의 합목적성 원칙을 지키는 것입니다. 따라서 인공지능의 개발부터 활용의 전 단계에서 인권 보장, 프라이버시 보호, 다양성 존중, 침해 금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성의 요건을 강조하고 있습니다.

지능정보사회로의 본격적 첫발을 내디딘 지금, 인공지능과 윤리 문제에 대한 토론과 숙의가 이어질 수 있도록 우리 모두의 관심이 필요한 시점입니다.

글. 오주현(연세대학교 바른ICT연구소, 사회학 박사)

 

1.Judith Jarvis Thomson, J. J. (1985). The Trolley Problem, Yale Law Journal, 94, 1395-1415.
2.ICDPPC (23rd Oct. 2018). Declaration on ethics and data protection in artificial intelligence.
3.과학기술정보통신부(2020. 12. 23). 과기정통부, 사람이 중심이 되는 ‘인공지능(AI) 윤리기준’ 마련.