설명 가능한 인공지능이란 존재하지 않는 지도 모른다

신현묵·2019년 12월 12일
1

그냥 문득...

설명가능 인공지능(Explainable AI, XAI)에 대한 화두를 이렇게 생각해본다.

현재의 기계학습과 머신러닝에 대한 상세한 설명은
https://www.whydsp.org/237?fbclid=IwAR2Z4TpBIRIuLDaQ8VCCNfSd2hImXmmCBvU4nGXST4F6w3e7FpWe0SGR5S4
을 참조하면 쉽게 설명되어 있다.

사실, 이 방식은 오래전에 고안된 내용이고, 현재 각광을 받는 이유는 컴퓨팅 파워를 손쉽고, 저렴하게 사용할 수 있는 시대로 돌입했기 때문에 그 가치가 올라간 상태이다.

흥미로운 점은 이런 기계학습을 통합 캡슐화된 '블랙박스'들은 특정한 판단에 대해서 알고리즘을 설계한 사람이 풀어서 설명이 현재는 불가능한 상황이다.

DARPA에서도 엄청난 예산을 투자하여 이 방법으로 진화하려고 하고 있고, 판단 이유를 설명할 수 있는 인공지능으로 구성되어야 한다는 움직임이 크게 보폭을 넓히고 있는 것도 사실이다.

그 이유는 인과관계에 대한 합리적인 이유와 근거를 사람에게 이해시켜야 하고, 의료 인공지능의 경우에도 왜 그런 병명에 대한 판단을 설명할 수 있어야 인간 의료진들과의 조율하고, 설명이 불가능한 상태에서의 불안감을 해소해야 한다는 이유때문이다.

복잡하지만...

인간이기 때문에...
설명이 논리적이지 못하면...
신뢰를 보낼 수 없다는 이유때문인지도 모른다.

하지만, 문득 그런생각을 해보았다.

현재의 기계학습으로 만들어진 인공지능들은 대부분 '특정한 기능이나 특정한 수련을 대규모로 하나의 인간에게 집중화시켜서 훈련시켜 본적이 없기 때문에... 인간이 이해할 수 없는 상황을 만난것 아닐까? 라는 생각이다'

더군다나...

사실... 인간이 의사결정하는 구성이나 결정을 내리는 논리 역시...
완전한것은 아니지 않느냐는 생각을 해본다.

물론...
연구는 현재의 기계학습이 된 내용에 대해서 다시 해석이 가능한 형태로 훈련을 하는 기계학습 방법을 찾아 낼 가능성도 있어 보인다.

다만...

현재의 기계학습의 가치는 충분하다.

특정 환경, 고속으로 동작하거나, 대규모의 사례가 있는 경우...
훈련을 통해서 실수를 방지하거나, 기능을 고도화 하는 수많은 인간의 기능과 직업을 대신할 수 있다.
따지고 본다면...

인간들 끼리 서로 이해한다고 이야기하지만,
사실.. 서로 신뢰를 충분하게 한다고 구체적인 함수로 서술할 수 있을까?

인간의 머리구조와
이해, 사회의 불합리등의 상황에서도
동작하는 시스템들을 생각한다면...

사실상...

설명 가능한 인공지능이라는 말은...
설명 가능한 인간이라는 말과 동일한 것 아닌가 하는 생각을 해본다.

profile
소프트웨어 개발자로서 벤처/스타트업의 문제 프로젝트를 해소하고, 팀빌딩을 하는 재미로 삶을 사는 글쓰는 흰머리 개발자. (백세코딩)

0개의 댓글