인공지능이 마주할 수 밖에 없는 신뢰의 벽.
책임 있는 인공지능을 위해 심혈을 기울여야 합니다.
책임 있는 인공지능을 위한 개념들을 사례 위주로 소개합니다.
1. 투명성 Transparency
왜 그랬는지 설명할 수 없다보니 신뢰하기도 어려움
XAI : 설명 가능한 AI (eXplainable AI)
설명할 수 있어야 한다. 어떻게 해서 이렇게 작동하는지 알 수 있어야 한다
우리가 신뢰할 수 있도록 투명성이 필요하다
투명성 문제를 해결하기 위해서는 모두의 노력이 필요하다
1) 인공지능 개발자
2) 인공지능 서비스 제공자
3) 인공지능 이용자
2. 책임성 Accountability
인공지능도 책임이 있을까?
원숭이 셀카 사진
자율 주행차 사고의 책임은 누구에게 있는가?
인공지능 의사의 진료와 처방에도 책임이 있을까?
현재는 인공지능 의사는 보조 역할
3. 공정성 Fairness
인공지능은 모든 사람을 공정하게 대하고 비슷한 상항에 있는 집단에게 상이한 방식으로 영향을 미치지 않아야 합니다.
학습 데이터의 편향성을 그대로 답습
성별, 인종, 구조적 불평등을 강화시키는 도구로 사용될 수 있는 위험
편향성을 발생시키는 주요 원인
1) 편향된 표본 Skewed sample
a 지역 범죄 관찰 기록 많다는 초기 데이터 토대로 a 지역에 경찰 다수 투입
2) 오염된 사례 Trainted examples
남성 지휘자, 마술사, 건축가
여성은 주부,간호사, 사서
성별 간 연관
3) 제한된 기능 Limited features
고등 교육 받지 못한 남성
고등 교육 받은 여성
하지만 남성이 연봉이 더 높은 경우
4) 표본 크기 불균형 Sample size disprity
Nymwards 보통 백인 이름이지만 흑인이 사용
5) 대리 변수의 존재 Proxies
성별 데이터를 제거하더라도
좋아하는 스포츠, 연예인으로 등으로 성별 유추
4. 신뢰성 및 안전성 Reliability & Safety
불투명성으로 예측할 수 없는 상황에서 인간에게 유해한 방식으로 행동할 수 있다는 두려움
신뢰성은 어떤 상황에서도 안전한고 일간되게 가동하는가
1) 아기를 공격한 보안 로봇 인공지능 사례
2016년, 미국 캘리포니아 쇼핑센터 보안 로봇 16개월 유아 공격 사례
2) 뉴욕 로봇 경찰, 로봇 경찰견 투입
3) 아마존 에코, 부부의 사적인 대화 녹음해서, 지인에게 공유하는 오작동
신뢰성, 안정성을 확보하는 방법
1) 데이터
2) 모니터링
3) 제어권
4) 피드백
5. 개인정보 보호 및 보안
1) 개인정보 보호 사례 : 이루다 스캐터랩 개인정보 무단 사용 사례
2) 보안 사례 : 마이크로소프트 & 크라우드스트라이크 사례
6. 포용성 Inclusiveness
공정성 : 차별하지 않기 위해 데이터 편항 넣으면 안 된다
포용성 : 인공지능 개발에 사람들을 배제해서는 안 된다
시각 장애인에게 청각으로 정보를 전달하는 인공지능
Seeing AI
마이크로소프트의 포용적 디자인 원칙
1. 배제되는 사람들이 없도록
2. 하나의 솔루션에서 여러 솔루션으로 확장
3. 다양성으로부터 배우기
책임있는 인공지능이 적용되는 과정
1) 데이터 윤리 (개인정보보호, 보안)
2) 알고리즘의 투명성
3) 사회적 편견/차별 이슈 (사후적 윤리규제)
금융 분야 인공지능(AI) 가이드라인
1) 3중 내부통제 장치
2) 데이터 정확성, 안전성 확보
3) 금융소비자 권리 보장
4) 투명성, 공정성 제고
금융분야 AI 서비스 주요 사례
1) 신용평가, 대출심사
2) 자산관리
3) 상품설명, 고객상담
인공지능의 윤리적 이슈들에 대해 사전에 충분히 고민하고
대중과 공감대 형성 필요성에 공감했습니다.
인공지능의 윤리적 이슈 부분들에 대해
사전에 깊이 있게 고민하는 과정이 있어야
나아갈 수 있음을 깨닫는 계기가 됐습니다.
(공든 탑이 정말 하루 아침에 무너질 수 있음을 깨달았습니다.
AI 분야에서는 전진보다는 다지는 과정이 필수적 요소임을 깨달았습니다.)