[횡설수설/우경임]AI 윤리강령

  • 동아일보
  • 입력 2019년 5월 25일 03시 00분


코멘트
‘AI’(인공지능)란 용어는 1956년 미국 다트머스대 인지과학자들이 뇌의 기능 연구를 정부에 제안할 때 처음 사용됐다. 이후 수십 년 동안 어려운 수학 문제는 풀어도 개와 고양이 얼굴은 헷갈려 버벅거리던 AI가 최근 인간의 마음을 넘볼 정도가 됐다. 400만 년 동안 인간의 뇌에 쌓인 진화의 흔적을 빅데이터와 딥러닝 기술로 따라잡기 시작했기 때문이다. 곧 AI가 인간을 넘어서는 사회가 도래할지도 모른다. 하지만 AI는 인간을 학습하면서 성, 인종 등에 대한 인간의 편견까지 그대로 흡수했다.

▷아마존은 2014년부터 활용한 AI 채용 프로그램을 얼마 전 폐기했다. AI가 기존 남성 편향적인 데이터로 입사지원서를 걸러내다 보니 ‘여성’이라는 단어가 들어간 지원서는 선택하지 않았기 때문이다. 중국 정부는 AI가 국민의 대출 연체, 공유자전거 대여 후 반납일자 등 신용정보를 취합해서 개개인의 신용점수를 매기도록 했다가 ‘빅브러더’ 논란을 낳았다.

▷이처럼 불안하게 성장하는 AI를 어떻게 만들고 사용할 것인가에 대한 국가 간 합의가 처음 이뤄졌다. 22일 경제협력개발기구(OECD) 최고 의사결정기구인 각료이사회는 ‘AI 이사회 권고안’을 36개국 회원국 만장일치로 채택했다. 법적 구속력은 없지만 국제적인 표준이 마련된 셈이다. AI 윤리 권고안에는 △AI는 인간 중심의 가치, 즉 민주주의와 다양성을 존중하도록 설계해야 한다 등 5개 항이 담겼다. 한마디로 요약하면 AI는 인간 사회에 절대 해를 끼치지 않도록 설계되어야 한다는 것이다.

▷‘만약 브레이크가 고장 난 차가 행인들을 칠 상황이라면 행인 중 누구를 구할 것인가.’ 자율주행차는 이런 문제를 스스로 풀 수 없으므로 미리 AI 알고리즘을 입력시켜야 한다. 이를 물은 미국 매사추세츠공대(MIT) 미디어랩의 ‘트롤리 딜레마’ 실험에 직접 참여해봤다. 점점 질문의 난도가 높아지며 선택 자체가 고통스러워 중단했다. 설문 참여자 200만 명의 응답을 분석한 결과를 보면 남성보다 여성, 한 명보다 여러 명, 나이가 어릴수록 구하는 쪽으로 의견이 모였다. 자율주행차 시대엔 노인이면, 혼자 걸어 다니면, 심지어 비만이면 차에 치일 가능성이 상대적으로 높아지는 것이다.

▷인간은 실수도 잦지만 상황에 따른 대처가 가능하다. 그러나 AI는 입력된 공식에 따라 실수 없이 정답에 해당하는 쪽으로 돌진한다. AI와 살아갈 사회가 유토피아일지, 디스토피아일지는 우리에게 달린 셈이다. AI는 인간의 뇌를 모방한다. 결국 선한 인간이 선한 AI를 만든다.

우경임 논설위원 woohaha@donga.com
#인공지능#ai 윤리강령
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스