장애인과 인공지능(AI), 모두를 위한 인공지능 규제
4차산업혁명과 장애 운동 ➁
본문
▲ PEAT(고용 및 접근성 기술 파트너십)에서 소개하는 인공지능 & 장애 통합 툴킷 정보(고용환경에서의 공정한 AI, 자동화 채용도구의 위험성, 공정한 AI를 사용한 기업 사례, 인공지능 플레이북 등) ⓒPEAT 홈페이지
청각장애인 학생이 강의실에 앉아 키보드를 열심히 치고 있다. 인공지능(AI) 스마트 안경을 쓰면 강의자의 음성이 텍스트로 변환되어 안경에 표시되고, 그 강의내용을 입력하고 있는 것이다. 시각장애인 한 사람이 누군가의 도움 없이 스마트폰 어플로 컴퓨터 화면의 문자를 스캔하고 있다. 이 어플은 텍스트를 음성으로 변환해주고, 대화하는 사람의 얼굴을 찍으면 상대방의 표정을 음성으로 전달한다. 또한, 점자책을 완성하려면 수개월이 걸리던 일이 인공지능으로 하루면 완성된다.
인공지능이 발달하면 할수록 장애인의 보조기술과 제품은 놀라울 정도로 정교해지고 장애인의 삶의 질을 높이고 있는 것이 사실이다. 그러나, 인공지능이 장애인의 보조도구로서 효율적이고 혁신적이기만 한 것일까? 우리는 세계 곳곳에서 장애인에 대한 인공지능의 차별과 혐오 사례를 목도하게 된다.
UN의 장애인 권리 특별보고관 제라드 퀸(Gerard Quinn)은 인공지능이 인간의 존재 조건을 근본적으로 바꾸어 놓았다고 말한다. 특별보고관 보고서는 인공지능을 둘러싼 논쟁의 중심에 장애인의 인권을 놓음으로써 장애인을 위한 인공지능의 기회를 실현할 수 있는 방법을 모색하고 있다. 인공지능의 책임감 있는 사용을 강조하며 포용과 평등, 일자리 접근성, 상품 및 서비스에 대한 접근성, 장애 서비스 개선, 건강지원, 독립적인 생활 지원, 교육 등을 개선할 수 있으며 반면에 개인정보 유출, 고용 불안정, 교육 불평등, 학습데이터의 편향성 등이 장애인의 권리에 부정적 영향을 미치고 있음을 지적한 바 있다. 장애인권리협약(CRPD)은 장애인의 기본권으로서 기술 접근성 및 삶의 모든 영역에서 평등과 차별금지 보장을 명시하고 있다.
인공지능(AI) 채용 면접의 편향과 차별 그리고 배제
인공지능 알고리즘에 의한 차별, 혐오 사례는 지속적으로 발생할 수 있는 위험성을 내포하고 있는데, 국제적 흐름과 달리 국내에서는 구체적이고 체계적인 노력이 보이지 않는다. 진보네트워크센터는 2020년 인공지능채용 면접과 관련하여 개인정보침해, 인공지능 면접의 차별성과 편향성 등의 실태를 파악하고자 인공지능 채용을 진행한 공공기관에 정보공개청구를 시작으로 공익소송을 진행한 바 있다. 소송을 통하여 해당 기관이 채용 인공지능의 공정성이나 문제점에 대한 검증과 관련 자료를 구비하지 않고 있었다는 무책임성의 민낯을 확인하는 계기가 되었다. 또한, 과학기술정보통신부 산하 ICT 기관 3곳에서 장애인과 비장애인 면접자 모두에게 같은 인공지능 프로그램을 적용하여 장애인 차별 논란이 있었다. 인공지능 면접에서 높은 점수를 받으려면 표정과 어조, 태도를 분석하기에 발음이 정확하고 안정적인 자세가 요구되는데 이는 장애인이 능력이 있어도 고용에서 배제될 수 있음을 의미한다.
▲ 출처. KBS뉴스, 'AI면접관은 공정 '차별위험' 검증 필요, 홍성희, 2022년 7월 18일
미국 뉴욕시의 사례를 들여다보면, 뉴욕시 의회는 승진 및 채용지원자에 대한 고용 결정을 지원하는 자동화된 고용 결정 도구(AEDT)의 사용을 규제하고 있다. AEDT는 머신러닝, 통계 모델링, 데이터분석 등 인공지능 기반 채용 도구이다. 2021년 12월 LOCAL Law 144를 의결하였으며, 2023년 7월 5일에 시행되었다. LOCAL Law 144에 의하면, AEDT를 사용하여 승진 및 채용지원자를 평가하기 전에 1년 이내에 AEDT에 대한 편향성 감사(독립 감사인에 의한 평가)를 완료해야 하며, 결과를 요약하여 웹사이트에 공개하여야 한다. 결과 요약에는 가장 최근의 편향성 감사 날짜, 배포 날짜, 편향성 감사에 사용된 데이터 출처와 설명 등이 포함되어야 한다. 데이터 수집에 관한 공지는 필수이며 웹사이트 채용 섹션에 명확하게 정보를 제공하도록 하고 있다. 고용주(조직)는 승진 및 채용 지원자에게 AEDT로 평가한다는 것과 지원자가 대안적 선발 절차 또는 합리적인 편의 제공을 요청할 수 있도록 최소 10일 전에 통지할 것을 명시하고 있다. 또한, AEDT와 관련하여 차별이 발생하면 뉴욕시 인권법에 따라 뉴욕시 인권위원회에 접수하도록 하고 있다.
미국 평등고용기회위원회(EEOC, Equal Employment Opportunity Commission)는 2022년 5월, 기술지침을 통해 알고리즘 채용 도구가 장애인을 어떻게 차별할 수 있는지에 대해 발표한 바 있다. 또한, 인공지능채용 면접에서 지원자의 자세, 어조, 말의 속도 등 행동을 분석하고 답변을 토대로 지원자의 업무 수행 능력을 예측하고 있는데, 표정에서 감정을 추론하는 것은 매우 불확실하고 신뢰할 수 없음을 논문 자료를 통해 근거를 제시한다. 법·제도적으로 위험성을 해결하고자 실타래를 풀어내듯 보완하고 개선해 나가는 모습을 엿볼 수 있다.
인공지능 스피커, 민감한 개인정보 유출과 편향성 전파
국내 지자체에서는 노인과 장애인 등 취약계층을 대상으로 재난 정보 음성알림서비스를 시행하는 지역이 있으며, 인공지능 스피커에게 “OOO~ 살려줘!” 외치면 119가 출동하는 서비스가 시행되고 있다. 또한, 사회복지서비스 차원에서도 음성으로 작동하며 정보 접근성을 높이고 있다. 취약계층에게 인공지능 스피커는 말벗이자 돌봄의 역할을 하는 것이다. 그러나 이러한 좋은 취지의 ‘인공지능 스피커’에도 불구하고 지속적으로 문제점이 지적되어 왔다.
흔히 회자되는 사례로 2018년 미국 아마존의 인공지능 스피커 에코에 장착된 알렉사는 이용자가 자신의 녹음기록을 들려달라고 요청하자 다른 이용자의 녹음기록을 함께 제공해 논란이 된 적이 있었으며, 알렉사가 가족의 비공개 대화를 녹음해 주소록에 있는 연락처로 전송한 사건이 있었다. 인공지능 스피커는 사용자의 음성을 인식하고 대기 상태로 있으므로 주변의 소리까지 흡수한다. 그리고 이용자의 민감한 개인정보를 담아낼 수 있으며, 편향된 데이터를 학습하여 편견과 혐오를 전달할 수 있는 가능성이 잠재되어 있다.
▲ 아마존 웹사이트에서 약 99달러에 판매되고 있는 ‘아마 존 에코’ 2세대 글로벌 버젼 ⓒ아마존
장애인의 권리를 존중하는 인공지능 개발
세상은 공평하지 않다. 인간 또한 불완전하다. 그렇기에 인공지능이 수집하는 데이터 역시 편견이 있을 수밖에 없다. 문제는 인공지능의 위험성을 어떻게 최대한 완화할 수 있는지 방법을 찾고 실천적 대안을 찾아야 한다는 것이다.
유럽장애포럼(EDF, European Disability Forum)은 장애인의 삶의 질을 높일 수 있는 인공지능의 기회와 위험을 인식하고, 유럽 장애인들의 목소리를 대변하고 있다. 특히, 인공지능의 위험성에 대해 접근성과 포용성을 중점에 두고 인공지능이 안전하게 개발되도록 촉구하고 있다. EU 인공지능법에 대한 유럽장애포럼 결의안은 모두를 위한 디자인(Design for All)에 중점을 두어 개발되고, 차별금지와 평등 및 개인정보보호에 대한 권리를 존중하는 방식에 주목한다. 이는 장애인의 사회적 참여와 포용을 확장한다는 것이다. 이 결의안은 취약계층의 배제와 차별이 심화되지 않도록 인간의 다양성을 고려하여 인간중심설계를 해야 한다고 강조하고 있다.
미국 노동부 산하 ‘장애인 고용정책국’은 ‘고용및 접근성 기술 파트너십’(PEAT, Partnership on Employment & Accessible Technology)을 운영하는데, 장애인을 위한 포용적인 조직문화를 구축하고 기술 분야의 협업을 촉진하는 파트너십을 구축하고 있다. PEAT는 인공지능 플레이북을 통해 다양성, 형평성, 포용성, 접근성의 맥락에서 지원하고 있다. 회사에서 인공지능 기술을 개발하거나 적용할 때 조직에 도움이 될 수 있도록 인공지능의 위험성 및 차별의 양상을 평가하는 방법 등 인공지능이 제대로 작동할 수 있도록 고용주에게 전반적인 지침을 제공하고 있다.
반면, 국내 자료를 검토해보니 장애인과 인공지능 관련하여 구체적인 실태조사나 연구, 지원 프로그램 등 법·제도적 미흡함을 느낀다. 무엇보다도 국내는 인공지능의 위험성에 대한 구체적이고 실행 가능한 규제가 전무하다. 현재, 국회에 계류 중인 인공지능법안은 산업육성에 치중한 법안이며 전면 재검토가 필요한 법안이다. 인공지능의 혜택과 기회를 온전히 실현하고자 한다면, 먼저 인공지능에 대한 안전성 검증 등 규제가 선행되어야 한다.
인공지능의 개발 및 활용의 전 과정에서 인권영향평가의 수행, 알고리즘의 투명성, 설명 가능성, 책임성, 모니터링 등 제도적인 안전장치가 구축되어야 한다. 그리고 정부, 국회(정책입안자), 시민사회, 당사자(영향을 받는 사람들)의 협의체가 구성되어 공동의 목소리를 낼 수 있어야 하며, 문제를 인식하고 실천적 대안을 찾아가는 사회적 분위기를 만들어 나가야 할 것이다.
▲ 마나 진보네트워크센터 활동가
-------------------------------------------------------------------------------------------------------------------------------------
작성자글. 마나 진보네트워크센터 활동가 cowalk1004@daum.net
Copyright by 함께걸음(http://news.cowalk.or.kr) All Rights Reserved. 무단 전재 및 재배포 금지
댓글목록
등록된 댓글이 없습니다.