반복내용 건너뛰기(skip to main content) 본문 바로가기(Go body) 메뉴 바로가기(Go Menu)
G03-8236672469

특별 기고

인공지능 윤리, 어디까지 왔을까?

NSP통신, NSP인사 기자, 2021-01-18 10:41 KRD7
#김명주

김명주 교수 서울여자대학교 바른AI연구센터장

(서울=NSP통신) NSP인사 기자 = 2020년 말 국내 AI 스타트업 스캐터랩이 오픈한 AI 챗봇 '이루다'가 중고생 네티즌에 의한 성희롱, 동성애에 대한 차별적 챗봇 발언 등으로 2021년을 맞이하자마자 세간에 뉴스거리가 되었다. 그런데 이런 뉴스는 처음 있는 일도 아니고 이미 오래 전부터 예고되었던 현상이다. 5년 전인 2016년 3월 마이크로소프트사가 만든 AI 챗봇 'Tay'(테이)가 유대인을 학살한 히틀러에 대한 옹호 대화를 진행하는 바람에 오픈한지 16시간 만에 폐쇄한 경험을 이미 가지고 있다.

2016년은 우리나라 사람 모두에게 특별한 경험이 있던 해이다. 바둑천재 이세돌 9단과 인공지능 알파고가 세기의 바둑대결로 우리나라 사람들 뿐 아니라 전 세계를 깜짝 놀라게 했던 사건이 있었다. 같은 해 '인공지능은 장차 인류를 구원할 것인가? 아니면 멸망시킬 것인가?'라는 제목으로 스티본 호킹 박사가 기고한 글이 영국 BBC에 대대적으로 방송되었다. 이에 기다렸다는 듯이 테슬라 자동차의 일론 머스크 회장, 마이크로소프트사의 빌 게이트 회장도 '인공지능은 인류의 마지막 기술일 수 있다'는 경고를 내놓기 시작했다.

NSP통신-김명주 교수 (서울여자대학교 바른AI연구센터 제공)
김명주 교수 (서울여자대학교 바른AI연구센터 제공)

인공지능에 대한 기대와 우려가 한꺼번에 터진 해가 바로 2016년이다. 인공지능이 가진 엄청난 능력과 잠재력에 다들 기대에 부풀어 너도나도 인공지능 연구와 도입에 심혈을 기울이고 있는 분위기 속에, 세계적으로 유명한 학자들과 기업인들이 쏟아내는 이러한 경고는 충분히 주목할 만한 가치가 있었다.

인공지능의 결정은 언제나 공정한가?
아마존은 2014년부터 준비하여 2016년부터 인공지능에 의한 신입직원 채용을 진행해왔다. 이 인공지능은 구직 희망자의 지원서를 약 5만 개 키워드로 분석하는 프로그램으로서 5명의 개발자가 참여했는데 100장의 신입사원 지원서를 집어넣으면 순식간에 최상의 조건을 갖춘 5명의 서류를 선발해냈다. 그런데 여성 지원자에 대한 차별현상이 분명하게 존재한다는 이유로 논란이 되어 2017년에 일단 폐기했다.

G03-8236672469

2019년 11월. 애플이 제공하는 신용카드가 개인의 신용점수가 아니라 성별에 따라 지출한도를 결정한다는 주장이 제기되어 금융당국이 조사에 착수했다. 데이비드 하이네마이어 한손이라는 기업가는 자신의 아내가 본인보다 더 높은 신용점수를 가지고 있음에도 불구하고 애플 카드가 자신에게 책정한 지출한도는 아내보다 20배 높게 책정했다며, 이는 통상적인 남성과 여성에 대한 사회적 차별을 애플카드가 인공지능에서 그대로 반영하기 때문이라고 주장했다. 곧이어 스티브 워즈니악도 동일한 상황이라며 이에 동조했다.

코로나 사태로 인하여 영국 정부는 2020년 8월 다이렉트 센터 수행평가 모델이라는 일종의 인공지능 알고리즘을 사용해 고등학교 학력평가 A레벨 테스트를 온라인으로 시행했다가 30만명의 대입 지망생들의 거센 반발을 초래했다. 일선 교사들의 판단과 다르게 인공지능의 판단은, 사립학교가 아닌 주립학교 학생들에게 그리고 불우한 환경의 학생들에게 학점이 불리하게 산정되었고 이로 인해 대학입학 허가에 불리해졌다며 공정성에 문제를 제기했기 때문이다.

이처럼 현실 세계의 데이터를 기반으로 학습하는 현재의 인공지능은 학습된 데이터 자체가 공정하지 않을 경우, 인공지능의 결정과정에도 공정해지지 않는 윤리적 문제를 충분히 발생할 수 있음을 보여준다.

자율주행차, 인공지능 관련 사고는 누구 책임일까?
이미 상용화 단계에 들어선 자율주행차는, 자동차라고 불리는 복잡한 사물인터넷(IoT)에 적용된 대표적인 인공지능 산물이다. 미국자동차기술협회(SAE)의 기준에 의하면 자율주행차의 수준은 모두 5단계로 구분되는데, 4단계부터는 사람이 전혀 개입하지 않는 완전자율주행단계이다. 우리나라 국토교통부는 완전자율의 바로 아랫단계인 3단계 자율자동차 안전기준인 임시허가규정을 작년 말에 이미 마련하였고 올해 2021년 시행예정이다. 이러한 자율주행 3단계 만해도 출발, 주정차, 주행, 도로상황대처 등 대부분을 자동차가 스스로 결정하며 아주 예외적인 상황에서만 사람이 개입한다.

그런데 2016년 세간의 주목을 받던 자율주행차 테슬라가 자율주행 도중에 전방의 트레일러를 하늘로 잘못 인식하여 들이받아 운전자가 그 자리에서 사망하는 사고가 처음으로 발생한 이래 지속적으로 자율주행차와 관련된 사고가 발생하면서, 인공지능의 안전성과 책임성에 대한 논란이 급물살을 타고 있다. 자율주행차 안의 장착된 인공지능이 잘못 동작한다면 운전자는 어떻게 대처해야 할까? 분노의 질주 : 더 익스트림”(2017) 등 많은 영화에서 이미 등장했듯이 내가 운행 중인 또는 주차장에 주차해놓은 내 자율주행차가 해커와 같은 제3자에 의하여 해킹될 가능성은 과연 전혀 없는 것일까?

NSP통신-국가별 빈출 인공지능 윤리 이슈 (서울여자대학교 바른AI연구센터 제공)
국가별 빈출 인공지능 윤리 이슈 (서울여자대학교 바른AI연구센터 제공)

인공지능에 대한 적극적 위협
2017년 구글에서 인공지능이 사물을 잘못 인식할 수 있도록 유도하는 적대적 패치 기술을 발표하자 인공지능 활용에 대한 신뢰성에 대한 의문이 더 커졌다. 교통표지판에 특정한 모양의 패치를 고의적으로 붙이면 자율주행차가 이 표지판을 다른 것으로 오인하는 것인데 이것은 자칫 대형 교통사고로 직결된다. 일종의 인공지능에 대한 고의적 해킹사고 사례로 볼 수 있는 것이다.

2018년 미국에서 열린 해킹 컨퍼런스 Black Hat에서 IBM은 DeepLocker라는 인공지능 기반의 악성코드를 처음으로 발표했다. 보통 때는 정상적으로 동작하던 인공지능이 특정한 사람의 얼굴을 인식하는 순간에 숨겨놓은 악성코드를 배포하거나 비정상적인 동작을 실행하는 것이다. 일반적으로 기업이나 개인이 인공지능 기술을 도입하여 활용하려면 효과적인 오픈소스코드를 선별한 후 이를 채택하여 사용하는 것이 통상적인데, 이러한 오픈소스코드 속에 DeepLocker와 같은 비정상코드가 숨겨져 있는지 검증하지 못한 채 사용할 경우, 이로 인한 사회적 파급력과 책임 분쟁은 매우 심각해진다.

인공지능과 관련하여 우려하는 또 다른 윤리적 이슈는 개인정보유출과 관련된 부분이다. 인공지능을 학습할 때 많은 데이터들이 미리 학습되는데 이 데이터 가운데 개인정보가 포함될 경우, 도치공격이나 유추공격을 통하여 학습된 개인정보를 역으로 추출해낼 수 있으며 이를 기반으로 추가적인 해킹 공격의 발판을 삼을 수 있다. 특히 인공지능이 다른 정보화기기나 통신기기 등과 결합하여 사용될 경우, 해킹에 의한 개인정보유출은 더 심각해진다. 예를 들어, 우리나라에 시판 중인 국내외 대표적인 인공지능 스피커에 대하여 최근에 국내 대학 연구소에서 해킹 취약점을 분석한 결과, 최소 300여개 이상의 취약점이 존재함을 발견했다. 이런 상황이라면, 장차 인공지능 스피커는 개인정보으를 유출하는 사생활 침해의 온상이 될 수 있다.

인공지능 윤리에 대한 접근 방법
인공지능 윤리에 대해 지금까지 진행되어온 국내외 연구는 크게 두 가지로 구분될 수 있다. 첫 번째는 인공지능이나 로봇 자체가 가지는 윤리에 대한 연구이다. 아이삭 아시모프의 3원칙이 그 효시로서 아시모프가 지은 소설 속에 나오는 원칙들은 윌 스미스 주연의 “아이, 로봇”이라는 영화에도 구현된 바 있다, 이는 인공지능 안에 도덕코드'라는 것이 존재하도록 구현할 때 따라야할 원칙을 제시하는 것으로, 인공지능을 사람과 동등하게 자율적 도덕 행위자로 가정해 인공지능 안에 내재시켜야 할 윤리이기에 지금의 기술수준으로는 아직 현실성이 없는 연구이다.

두 번째는 인공지능을 직접 개발하는 사람들이 지켜야 하는 윤리다. 어떻게 인공지능을 설계하고 개발해야 할지에 관한 개발자용 가이드라인을 제시한 것이다. 2016년 IEEE가 제시한 윤리적으로 조율된 설계(EAD)가 대표적인 사례이다. 이 두 번째 접근방법은 인공지능 윤리 연구의 대세를 이룬다.

이러한 두 번째 접근 방식은 다시 두 가지로 세분화될 수 있다. 첫 번째 방식은, 인공지능 윤리(로봇 윤리 포함)에 대한 국외 연구의 대다수가 지금까지 접근해온 방식으로서, 인공지능이나 로봇을 개발하는 사람(개발자)들이 인공지능 기술의 도입과 확산에 따른 문제점을 예견하는 데에서부터 출발한다. 인공지능 및 로봇 개발자가 해당 기술을 사용하여 제품을 만들거나 서비스를 제공할 때 준수해야 하는 “개발자 중심”의 가이드라인을 주로 인공지능 윤리로서 제시하고 있다.

두 번째 방식은, 일부 외국 연구진과 국내 인공지능 연구팀(필자가 속해있었던 Seoul PACT 연구팀)에서 제시한 인공지능 윤리 접근방식으로서, 인공지능 개발자는 물론 공급자, 이용자라는 3주체, 심지어 정부라는 비영리 공급자까지도 주체로 감안해 사회의 모든 구성원(주체)에 초점을 맞춰 각각의 입장과 시각 차이를 반영해 인공지능 윤리 가이드라인을 도출하는 것이다. 앞서 소개한 이루다나 테이의 경우, 이용자 윤리가 매우 중요하며, 인공지능 스피커, 자율주행차의 경우, 공급자 윤리와 제3자에 의한 이용자 윤리가 중요해진다.

인공지능 윤리의 원칙
인공지능 윤리를 구체화하기 전에 최소화된 윤리의 대원칙을 세울 필요가 있다. 한국 최초의 인공지능 윤리인 Seoul PACT(2018)에서는 이러한 인공지능 윤리의 대원칙으로 4가지(공공성, 책무성, 제어성, 투명성)를 제시하고 있다. 이러한 인공지능 윤리의 대원칙은 국가마다 중요하게 바라보는 관점 차이가 존재할 수 있으며 윤리 민감도가 다를 수 있다. 다음 그림은 2019년 스탠포드대가 발표한 AI 인덱스 자료 중에서 인공지능 윤리의 대원칙을 국가별 빅데이터 분석을 기반으로 키워드 형태로 표시한 것이다.

이들 인공지능 윤리 이슈에 대한 관심도에 있어서 국가적 특성에 따른 차이가 제법 존재하고 있다. 중국의 경우 공정성과 비차별성에 대한 이슈가 아예 존재하지 않는 반면, 안전과 보안 이슈가 45%로 가장 크다. 반면에 독일은 비교된 나라들 중에서 프라이버시 이슈가 가장 낮지만 인권 이슈가 가장 높다. 이처럼 인공지능 윤리의 대원칙에 대한 국가적 관심도가 충분히 다를 수 있음을 암시함과 동시에 이러한 인공지능 윤리를 글로벌 표준으로 합의하기에는 아직도 갈 길이 멀다는 것은 암시하고 있다. 그래서 그런지 195개 회원국을 가지고 있는 유엔은 현재 100개 넘는 윤리적 이슈들을 그대로 담은 인공지능 윤리가이드라인을 만들고 있으며 조만간 전 세계에 발표할 예정이다.

흔히 윤리는 돈이 되지 않는 소재라고 생각한다. 그러나 좀 더 긴 안목으로 생각하고 우리 주변의 사례들을 살펴보면, 윤리적인 것이 가장 경제적이며 가장 긴 생명력을 갖게 됨을 발견할 수 있다. 인공지능이 인류의 마지막 기술이 되지 않고 지속가능한 미래 기술로 자리 잡으려면 인공지능의 윤리에 대한 투자와 연구는 반드시 같이 병행되어야 하며 미래 인공지능 산업발전을 위해서는 글로벌 표준화 작업에 있어서 우리니라가 조금이라도 먼저 선점할 필요가 있다.

김명주 교수는 서울여자대학교 바른AI연구센터 센터장, 정보보호학과 및 데이터사이언스학과장을 맡고 있다. 정보화진흥원, 정보문화포럼 지능정보사회윤리분과위원들과 함께 3년간 연구해 국내 최초로 ‘인공지능 윤리 가이드라인’과 헌장을 제정한 공로로 2018년 정보문화의 달 근정포장을 받았다.

NSP통신 people@nspna.com
저작권자ⓒ 한국의 경제뉴스통신사 NSP통신·NSP TV. 무단전재-재배포 금지.