세계를 어떻게 볼 것인가?

"사람은 편견 가득"..로봇에 맡기면 '공정한 판단' 나올까

소한마리-화절령- 2016. 7. 4. 22:30

"사람은 편견 가득"..로봇에 맡기면 '공정한 판단' 나올까

한겨레 | 입력 2016.07.04. 20:36 | 수정 2016.07.04. 21:46

[한겨레]인공지능과 소프트웨어의 중립성

컴퓨터·카메라 자동 얼굴인식 잇단 문제
백인은 인식 정확, 흑인·동양인은 오류
고임금 직종 광고는 남자들에게만 노출

기술의 제1법칙 “기술은 중립적이지 않다”
기계학습 인공지능엔 투명성·감시 더 중요

도구는 사람의 능력을 확대하고 결점을 보완하기 위해 만들어진다 . 자율주행차량 기술을 옹호하는 사람들은 교통사고 사망자가 1년에 120만명이라는 점을 강조한다 . 교통사고 원인의 90%가 운전자 과실이기 때문에 자율주행 기술은 한 해 100만명을 살리는 인도적 기술이라고 주장한다 . ‘신의 손’ ‘오심도 경기의 일부’라는 표현이 통용되던 스포츠 경기에도 전자기록기와 비디오판독기 도입이 확산되고 있다 . 정확하고 공정한 판단에는 감정 없는 기계가 사람보다 나을 것이라는 기대가 반영됐다 . 오래전부터 체조나 콩쿠르 등 예술성 평가에서는 최고점과 최저점을 배제하는 방식을 도입했다 . 사람이 하는 판단은 편파성과 불공정, 부정확성을 벗어날 수 없다 .

구글이 선보인 포토앱은 사진을 자동으로 인식한 뒤 태그를 달아 분류하는 기능이 있다. 인공지능으로 작동하는 이 앱은 흑인을 고릴라라고 태그를 달았으며, 마이크로소프트의 채팅로봇 테이는 인종차별 발언을 하다가 하루 만에 퇴출당했다.
구글이 선보인 포토앱은 사진을 자동으로 인식한 뒤 태그를 달아 분류하는 기능이 있다. 인공지능으로 작동하는 이 앱은 흑인을 고릴라라고 태그를 달았으며, 마이크로소프트의 채팅로봇 테이는 인종차별 발언을 하다가 하루 만에 퇴출당했다.

인공지능은 사람의 편파적이고 불완전한 판단을 보완하고 대체하는 ‘공정한 판단 도구’가 될 것인가.

최근 사례들은 인공지능의 초기임을 고려해도, 기계에 ‘사람보다 공정한 판단’을 기대하는 것이 간단하지 않은 문제임을 알려준다. 지난해 5월 구글이 출시한 스마트폰용 포토앱은 사진을 인식해 자동으로 분류하고 태그를 붙이는 기능을 선보였다. 이 앱은 흑인 얼굴 사진에 ‘고릴라’라는 태그를 달아 한바탕 홍역을 치렀다. 구글은 “의도적인 게 아니었다”며 사과했다. 사진 인식과 관련해 유사 사례가 적지 않다. 니콘 카메라의 얼굴 인식 소프트웨어는 아시아인의 경우 뜬 눈을 깜빡이는 것으로 잘못 인식했고, 휼렛패커드가 만든 노트북의 웹캠은 흑인을 아예 인식하지 못했다. 백인의 경우에는 유사 사례가 없어 소프트웨어가 인종차별을 한다는 비판을 받았다.

캘리포니아, 펜실베이니아 등 미국의 많은 주에서 경찰은 검문검색 때 코그니테크와 같은 사진 인식 소프트웨어를 사용하는데, 인종에 따라 판독 정확도가 크게 차이 난다는 게 연구 결과 밝혀졌다. 흑인 사진을 잘못 인식할 확률이 백인보다 2배 높았다. 이는 운전면허증 같은 신분증을 대조할 때 흑인일 경우 신분 위조 가능성을 높게 판단해 범죄 용의자로 분류하는 결과를 유도할 수 있다. <프로퍼블리카>가 지난 5월 보도한 바에 따르면, 경찰이 사용 중인 이런 소프트웨어는 흑인이 무고하게 피고가 됐을 경우 상습범으로 추정하는 경우가 백인보다 2배 많았다. 이러한 추정은 흑인 거주지역에 대한 순찰 강화로 이어져, 다른 인종보다 더 많은 범죄 용의자 적발을 낳는 순환적 구조를 만들어낸다.

지난 4월 미국 온라인 쇼핑몰 아마존은 당일 배송 프라임 서비스를 제공하면서 미국 각 도시의 흑인 밀집거주지역에서는 이용할 수 없도록 했다가 비판을 받은 바 있다. 2015년 7월 미국 카네기멜런대 연구진은 구글 광고가 고임금의 구인 광고를 남성 위주로 노출시켜 여성의 해당 일자리 접근 기회를 줄인다는 연구 결과를 발표했다. 구글 광고는 흑인 사용자 가운데 흔한 이름을 쓰는 사람에겐 검색 결과 옆에 “경찰에 체포된 적이 있나요?”라는 체포사진 삭제 업체 서비스의 광고를 표시해 인종차별을 한다는 것을 하버드대 라타냐 스위니 박사가 밝혀낸 바 있다.

사람의 판단에 비해 공정성과 효율성을 높일 것이라고 기대받은 소프트웨어 알고리즘이 오히려 성별, 인종별, 소득별 차별을 강화하는 사례가 보고되며 이에 대한 비판도 높아지고 있다. 하지만 이런 차별적 알고리즘은 개발자가 의도한 게 아니라 결과적으로 나타난 차별이다. 왜 이런 차별이 일어날까?

이는 데이터에 의존하는 기계학습 방식의 인공지능이 지닌 속성 때문이다. 소프트웨어는 알고리즘과 데이터로 구성되는데, 두 가지에서 각각 애초 의도하지 않은 편향된 결과가 야기될 수 있다.

첫째, 알고리즘 자체가 중립적이거나 공정하지 않다. 미국 메릴랜드대 법학 교수 대니엘 시트론은 “알고리즘을 객관적이라고 생각해 신뢰하는 경향이 있지만, 그 알고리즘을 만드는 것은 인간이므로 다양한 편견과 관점이 알고리즘에 스며들 수 있다”고 지적한다. 단계적 수식 프로그램인 알고리즘은 세부적 코드마다 실제로는 구체적인 가정과 선택을 필요로 한다. 이 과정에 개발자의 성향과 판단, 사회적 압력이 알게 모르게 개입한다. 조지아공대의 기술사학자 멜빈 크랜즈버그 교수가 만든 ‘기술의 법칙’은 “기술 자체는 좋은 것도 나쁜 것도 아니지만, 중립적이지도 않다”(제1조) “기술은 지극히 인간적인 활동이다”(제6조)라고 정의한다.

둘째, 컴퓨터 스스로 데이터를 통해 학습하는 머신러닝은 주어진 데이터의 한계를 벗어날 수 없다. 기존 데이터의 규모와 특성 그리고 그 데이터를 만드는 사람들의 속성이 반영되는 구조다. 인공지능 분야에 종사하는 사람들은 백인, 남성, 고소득자, 영어 사용자가 절대다수다. 알고리즘이 흑인, 여성, 저소득층을 차별하는 결과가 만들어진 배경이다. 기계학습 방식의 구글 번역이 영어 등 서유럽 언어에서 높은 정확도를 보이는 것도 기본적으로 데이터의 규모와 속성에 따른 결과다. 최근 심화신경망 방식의 인공지능은 비지도 학습이 특징이다. 목표와 데이터만 제시하면 사람이 구체적인 방법을 알려주지 않지만, 가장 효율적인 방법을 컴퓨터 스스로 찾아낸다.

마이크로소프트의 수석연구원 케이트 크로퍼드는 지난달 26일 <뉴욕 타임스> 기고에서 “인공지능은 다른 기술들처럼 개발자의 가치를 반영한다. 누가 중요한 자리에 앉아 결정하고 윤리적 관점을 제시하는지 따지지 않으면, 소수 특권세력의 편협하고 편향적인 관점을 반영하게 된다.”

로런스 레시그 하버드 법대 교수는 <코드>에서 법이 사회를 규율하듯 소프트웨어 코드는 사이버 세계를 규율한다고 말한다. 법과 알고리즘 모두 현실을 규율하는 힘이지만, 차이는, 법조문은 작동 방식과 영향이 드러나지만 알고리즘은 블랙박스 속에 숨어 있다는 점이다. 개발자 외에는 접근할 수 없다. 인공지능의 쓰임새가 늘어날수록 그 작동구조인 알고리즘에 대한 투명성과 사회적 논의가 요구되는 이유다.

구본권 사람과디지털연구소장