[LG Aimers] Module 1. AI 윤리(1)

김민수·2024년 1월 3일
0

LG Aimers

목록 보기
1/4
post-thumbnail

Moudule1. [AI 윤리]

교수: KAIST 차미영 교수
학습 목표
본 모듈은 본격적인 AI기술에 대한 이해에 앞서 데이터 과학자로서의 기본적 소양을 기르기 위한 과정입니다.
따라서 인공지능 기술 도입에 앞서 데이터 과학자로서 그리고 제도적으로 윤리적으로 어떠한 자세를 가져야 하는지 이해하고, 인공지능 기술로 어떻게 문제를 해결할 수 있는지 학습합니다.

part1. 데이터 분석과 AI학습에서 유의할 점

1. 데이터 처리 및 수집에서 윤리 이슈

1) 데이터를 잘 해석하고 있는가?

- 상관관계와 인과관계 혼용 금지

2) 데이터 전처리와 분석방법은 적절한가?

- Error bar 추가하기
- 적합한 통계 테스트 찾기
- 아웃라이어 제거하기
- 데이터 표준화하기
- EDA(exploratory data analysis) 충분한 시간 보내기

3) 학습에 쓰는 데이터가 충분한가?

- 언더피팅(under-fitting)
- 오버피팅(over-fitting)
- 데이터 학습의 결과가 적절한 수준인지에 대한 인식이 있어야 함
- 학습(training)데이터는 테스트(testing)데이터와 달라야함

4) Black box algorithm

- 의사결정나무
- 블랙 박스 알고리즘
- 설명력이 중요한 AI 예시: 탈세범 검출
실제 알고리즘은 성능보단 설명력이라는 것이 중요
- AI 모델의 결정에 설명력 더하기
알고리즘의 내면을 가시화 - 사후설명력 (post-hoc explainability)
- 학습 결과가 바뀔 수 있는 위험성 one pixel attack의 예시에서 픽셀 하나만 바뀔 경우 알고리즘 학습 결과가 달라짐 -> 얼마나 노이즈의 민감한가?

5)Handling the Web data

- 의견의 대표성 : Spiral of silence
- 인터넷 상의 의견이 대표성 있는 의견이 아닐 수 있음을 인지
- 소셜 링크를 통한 빠른 정보 전파, 봇의 참여, 극단화 현상 주위
- 오정보의 빠른 확산으로 인한 인포데믹 현상
인포데믹 : 사실정보와 더불어 오정보의 양이 늘어 구분이 어려워지는 정보 과부화 현상
- 데이터 사용과 서비스 개발에 사용자 어려움을 반영해야 
- The right to be forgotten - 사생활 노출이나 과거 기록 삭제

6)윤리에 대한 법적 제도

- 유럽 GDPR

7) AI and Ethical Decisions

- 인공지능 알고리즘으로 인한 부작용(Predictive Policing) - COMPAS 재범률 수치(알고리즘의 인종차별)
- 인공지능 알고리즘으로 인한 부작용(Recruiting) - 아마존의 AI 기반 채용시스템이 남성 지원자만 추천 ->폐기

- 인공지능 알고리즘으로 인한 부작용(Hate Speech) - Microsoft Tay 챗봇 백인우월주의자, 여성 차별 발언 학습 

결론: 데이터 분석과 AI 학습에서 유의할 점

  • 데이터의 확보, 전처리, 분석, 해석의 전 과정이 중요
    고품질의 데이터가 입력되었을 때 학습 결과도 유의미하며, 데이터가 가지는 오차 범위와 특이점, 대표성에 대한 충분한 이해를 가지고 접근해야 함

  • 알고리즘의 설명력, 편향, 신뢰의 문제에 주의
    블랙박스 알고리즘이 실제 사회에서 사용되기 위해서는 많은 경우 설명력 보강이 필요하며, 노이즈와 데이터 가변성에도 대처 가능한 알고리즘을 개발하도록 노력
    AI가 다양한 사회 서비스에서 인간 결정을 돕거나 대체함에따라 윤리적 의사 결정이 확보되도록 점검

profile
데이터 분석과 인공지능을 공부하고 있습니다.

0개의 댓글