학습목표
- AI 윤리기준의 개요와 특징을 말할 수 있다.
- 인공지능 기본법의 개요와 특징을 말할 수 있다.
- 유럽연합 인공지능법의 개요와 특징을 말할 수 있다.
AI 윤리기준의 개요와 특징
AI 윤리의 배경
- 정보통신기술의 발달과 함꼐 인공지능이 사회, 경제뿐만 아니라 우리 생활 전반에서 널리 활용
- 편리함 너머로 부정적 논란이 불거짐
- 개인정보 침해
- 개인 특성에 따른 편향
- 차별 문제
구글 사진 얼굴 자동인식 오류
→ 잘못된 알고리즘 결과의 예
: 인간이 만들어내는 검색 데이터가 축적됨에 따라 알고리즘도 사용자들이 갖고 있는 잘못된 생각을 그대로 학습하게 되고 이 알고리즘을 통해 사람들의 편견이 더 강화될 수 있어 주의를 요함
→ Algorithmic bias (알고리즘 편향)
- 이러한 상황에서 인공지능 기술이 가져오는 순기능을 최대화하고 역기능은 최소화하기 위해 '인공지능 윤리기준' 규범을 만듦
인공지능(AI) 윤리 기준
- 산업/경제 분야의 자율규제 환경을 조성함으로써 인공지능 연구개발과 산업 성장을 제약하지 않고, 정당한 이윤을 추구하는 기업에 부당한 부담을 지우지 않는 것을 목표로 함
- 인공지능
- 사회적 불평등 해소에 기여하고 주어진 목적에 맞게 활용되어야 함
- 목적의 달성 과정 또한 윤리적이어야 함
- 궁극적으로 인간의 삶의 질 및 사회적 안녕과 공익 증진에 기여하도록 개발되고 활용되어야 함
《법 체계》★★
하이라키(hierarchy; 계층 구조)
↑ 헌법
법 ▶ 법 제정: 국회의원
행정렬 ▶ 제정/개정: 공무원
기준
지침
※ 헌법을 '개정'한다 ☞ 법을 제정하는 국회의원 + 법을 집행하는 행정부 구성원 + 정부 → 헌법 초안 작성 → 국민 투표: 위에서 아래로 내려오는 하이라키를 가짐
아래로 내려올 수록 수정/개정 쉬움: 기준&지침 → 연구원들이 참여해 초안 작성
※ '기준'이라는 단어가 법 체계의 한 축이기도 하다는 점을 알아두면 좋다.
3대 기본 원칙
- '인간성을 위한 인공지능(AI for Humanity)'을 위해 인공지능 개발에서 활용에 이르는 전 과정에서 고려되어야 할 기준으로 제시됨
- 인간 존엄성 원칙
- 인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계 제품과는 교환 불가능한 가치가 있다.
- 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.
- 인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.
- 사회의 공공선 원칙
- 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구
- 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용되어야 함
- 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 함
- 기술의 합목적성 원칙
- 인공지능 기술은 인류의 삶에 필요한 도구라는 목적과 의도에 부합되게 개발 및 활용되어야 함 & 과정도 윤리적이어야 함
- 인류의 삶과 번영을 위한 인공지능 개발 및 활용 장려하여 진흥해야 함
10대 핵심 요선
- '3대 기본 원칙'을 실천하고 이행할 수 있도록 인공지능의 개발 및 활용 과정에서 전체 생명 주기에 걸쳐 충족되어야 하는 핵심 요건
- 인권 보장
- 모든 인간에게 동등하게 보장된 권리를 존중해야 함
- 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장해야 함
- 인간의 권리와 자유를 침해해서는 안 됨
- 프라이버시 보호
- 개인의 프라이버시 보호: 개인 정보의 오용 최소화
- 개인 정보 보호법을 따라야 함
- 다양성 존중
- 사용자의 다양성과 대표성을 반영
- 성별, 연령, 장애, 지역, 인종, 종교, 국가 등 개인 특성에 따른 편향과 차별 최소화
- 모든 사람에게 공정하게 적용되어야 함
- 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성 보장
- 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력
- 침해 금지
- 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안 됨
- 인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력
- 공공성
- 개인적 행복 추구뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 함
- 긍정적 사회변화를 이끄는 방향으로 활용되어야 함
- 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행해야 함
- 연대성
- 다양한 집단 간 관계 연대성 유지 및 미래세대를 충분히 배려하며 활용해야 함
- 다양한 주체들의 공정한 참여 기회를 보장해야 함
- 윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 함
- 데이터 관리
- 개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않아야 함
- 데이터 수집 및 활용 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 함
- 책임성
- 책임주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 함
- 인공지능 설계 및 개발자, 서비스 제공자, 사용자 간 책임소재를 명확히 해야 함
- 안전성
- 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 함
- 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기증을 갖추도록 노력해야 함
- 투명성
- 사회적 신뢰 형성을 위해 타 원칙과의 상충관계를 고려 → 적합한 수준의 투명성 및 설명 가능성을 높이려는 노력을 해야 함
- 인공지능 기반 제품이나 서비스 제공 시 인공지능 활용 내용과 활용 과정에서 발행할 수 있는 위험 등의 유의사항을 사전에 고지해야 함
인공지능 기본법의 개요와 특징
개요
- 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)
- 인공지능 기술이 산업과 사회에 미치는 막대한 영향력을 고려할 때, AI 윤리적 문제와 AI 보안은 간과할 수 없는 중요 사안
- 이러한 문제들을 해결하고 인공지능 기술이 올바른 방향으로 발전할 수 있도록 적절한 규제 및 지원은 필수적
등장 배경
- 생성형 AI의 등장
- AI 기술이 사회적으로 더욱 주목받고 논의의 중심에 서게 된 결정적 계기
- 기존의 기술과는 차별화된 창의적인 결과물을 생성해 그 잠재력을 증명하는 한편, 예상치 못한 AI 윤리적 문제와 AI 위험성을 동시에 부각시키며 사회적 관심이 집중됨
- 기술의 급격한 발전 속도를 따라가지 못하는 법적, 윤리적 기준(법적, 윤리적 기준의 부재)
- 다양한 사회적 문제 야기
- 개인 정보 침해 및 사생활 문제 → 사회적 발전을 심화시키는 주요 요인으로 부각
→ AI 기술이 건전한 발전과 안전한 활용을 위한 법적 토대 마련: '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 안' 제정
핵심 내용
- AI 정의
- 고영향 인공지능
- 사람의 생명, 신체의 안전, 기본권 등에 심각한 위험을 초래할 수 있는 AI 시스템
- 생성형 인공지능
- 입력 데이터를 기반으로 다양한 결과물을 생성하는 AI 시스템
- chatGPT
- 인공지능 산업
- AI 또는 AI 기술을 활용한 제품 및 서비스를 제공하는 산업
- 인공지능 사업자
인공지능 기본법 → 행정령 → 기준 → 지침 순으로 내려갈 수록 디테일해짐
회사 취업 후 사업 관련 직접적인 내용을 찾아볼 때는 지침 → 기준 → 행정령 → 기본법 순으로 올라가야 함
- AI 윤리 원칙
- AI 윤리적 문제의 해결에 대한 정부의 책무 명시(AI 기본법 제27조)
- 정부는 안정성, 신뢰성, 접근성, 인간의 존엄성과 공동체의 가치 등 핵심 요소를 반영한 AI 윤리 원칙을 마련하여 공표할 수 있도록 규정함
- 과학기술정보통신부장관 규정
- 윤리 원칙의 실질적인 적용을 위한 실천 방안 마련
- 교육 및 홍보 활동을 통해 사회적 인식 제고
- 기업의 책임 강화: 투명성 확보 의무
- 해당 제품이나 서비스가 고영향 또는 생성형 AI를 기반으로 한다는 사실을 사용자에게 사전에 명확히 알려야 함
- 생성형 AI를 활용한 결과물을 제공할 경우, 그 결과물이 AI에 의해 생성되었음을 명시해야 함
- AI 시스템을 통해 실제와 구별하기 어려운 가상의 결과물을 제공할 때는 사용자가 이를 명확히 인지할 수 있도록 고지하거나 표시해야 함
Q.

A.
좋은 문제 지적이고 좋은 질문입니다.
법이나 기준지침은 만들어지는 게 부족한 건 없고 '현장 적용'에 문제가 있습니다.
문제의 원인은 공무원들의 동기결여 → 공무원들이 일을 안함(아무것도 안 해도 되니까)
문제의 해결 솔루션은 공무원들이 업무를 더 열심히 할 수 있도록 동기를 부여해주면 될 것.
해당 법과 기준을 적용하는 공무원의 마인드 셋팅을 정확한 상벌규칙제정과 시행으로 바꾸어야 한다고 생각.
AI 기준법, 행정령, 기준, 지침이 생기더라도 그걸 현업에서 "적용"하는 건 공무원인 경우가 많음 → 공무원들이 이걸 적용하지 않으려는 이유는 가만히 나눠도 월급 받는 데 지장이 없기 때문 → 이걸 움직이려면 일을 하는 게 이익이 된다는 사례를 보여줘야 함
- AI 사업자의 안정성 책임 강화
- 인공지능 사업자에게 고도의 안전성 확보 의무 부과(인공지능기본법 제32조)
- 특히 학습에 사용된 누적 연산량이 대통령령으로 정하는 기준을 초과하는 AI 시스템에 대해서는 더욱 엄격한 기준을 적용
- 사업자는 AI 시스템의 개발, 활용, 폐기 등 전 생애주기에 걸쳐 발생할 수 있는 잠재적 위험을 사전에 식별하고 평가 → 완화하기 위한 체계적 조치 마련해야 함
- AI 관련 안전사고를 지속적으로 모니터링 → 사고 발생 시 신속하고 효과적으로 대응할 수 있는 위험 관리 체계 구축
- 정부의 역할과 지원
- 정부가 AI 산업의 발전과 안전한 활용을 위해 정책 수립, 연구 개발 지원, 윤리 기준 설정, 규제 및 감독 등 다양한 역할을 수행해야 함을 법으로 명시
- 대통령 직속 국가인공지능위원회: AI 관련 주요 정책 방향 설정
- 과학기술정보통신부: 인공지능 안전연구소 운영 → AI 안전성 확보
- AI 기술 개발 지원 및 표준화를 통해 산업 발전을 촉진
- 전문 인력 양성 및 해외 인력 확보를 위한 정책 추진 등
영향력
- 일반 사용자 측면: 사용자의 주의사항
- 기본적으로 기업과 산업에 초점을 맞추고 있는 법이지만 개인의 삶에도 간접적으로 중요한 영향을 미침
- AI 시대 → 개인 정보 유출, 악의적인 AI 공격 등 다양한 보안 위협이 더욱 빈번하게 발생할 수 있음
- 따라서 개인은 AI 보안에 대한 경각심을 높이고 정보 보호에 주의를 기울여야 함
- 기업 및 산업 측면: 기업의 주의사항 ★★★★★
- AI 기본법 중 고영향 인공지능 및 생성형 인공지능 사업자에게 구체적인 의무 부과 → AI 기술을 적극적으로 활용하는 모빌리티, 의료기기, 금융 등 다양한 산업 분야에 걸쳐 상당한 영향을 미칠 것으로 예상
- 특히 자율주행, 의료 진단, 신용 평가 등 인간의 안전과 권리에 중대한 영향을 미치는 '고영향 AI 시스템'을 운영하는 기업은 투명성, 안정성, 사용자 고지 등 강화된 의무를 준수해야 함
- 기존의 규제 체계와 AI 기본법의 내용을 자세히 비교하여 추가적인 의무 사항을 파악하고 대비하는 것이 중요

Q.
현대차나 기아차 등 대한민국 브랜드가 완전 자율주행이 되기까지 얼마나 걸릴까요?
규제만 풀리면 기술적으로는 빠르게 적용 가능하지 않나요?
A.
레벨5가 제일 높은 단계, 현대도 레벨 4정도는 가능하나 법때문에 못하는걸로 추측
스페인 정부는 보건의료 디지털 전환 전략의 핵심기술로 ai를 공식 채택하였다고 합니다!
ai는 의료진의 파트너 이고 디지털 전환은 곧 공공의료에 혁신 이라는 공식의견을 발표 했다고 합니다!
의료 쪽에서는 오히려 간호사만 살아남을 수도 있다고 보는 사람도 많더라구요.
의사 임상병리사 등은 대체되고 대체가 아닌 인간중심 접근을 유지하며 업무를 보완하는 도구로 활용되어야 한다는게 올바른 것 같습니다.
그 이유는 인간적인 판단도 분명하게 필요한 상황들이 있고, 결국엔 어떠한 문제가 발생했을때 책임소지를 물을 수 있는 주체가 필요하기 때문에 그렇게 생각했습니다.
유럽연합 인공지능법의 개요와 특징
개요
- 유럽연합 인공지능법(EU AI Act)
- AI 기술의 급속한 발전과 광범위한 적용에 따른 윤리적, 법적, 사회적 영향에 대응하기 위해 마련된 최초의 포괄적인 AI 규제 법안
- 2024년 3월 유럽의회(EP)에서 통과된 이후 5월 유럽 이사회에서 최종 승인됨
- 6개월부터 36개월 후부터 단계적으로 시행 예정
- AI 시스템을 위험 수준에 따라 분류하는 것이 주요 특징
등장 배경
- AI 정책 표준 설정
- 기업들의 AI 개발 방식을 변화시킴
- 윤리적이고 책임 있는 AI 발전에 영향을 미칠 것으로 예상 → AI법의 중요성이 커짐
- 글로벌 표준 설정
- EU의 규제가 종종 글로벌 표준이 되는 경향 → AI Act가 전 세계 AI 정책에 미칠 영향이 클 것으로 예상됨
- 기업 활동에 미치는 영향
- EU에서 활동하는 기업은 해당 법을 준수해야 하므로 글로벌 기업들의 AI 개발 및 사용 방식에 큰 변화를 가져올 것
- 개인 정보 침해 및 사생활 문제는 사회적 갈등을 심화시키는 주요 요인으로 부각
- 윤리적 AI 발전
- AI의 윤리적 사용과 인권 보호 강조
- 더욱 책임 있는 AI 기술 발전을 촉진할 것
주요 내용
- AI 정의
- 위험 기반 접근법
- AI 시스템을 위험 수준에 따라 분류
- 고위험 AI 시스템에 대해 엄격한 규제 적용
- 금지된 AI 규정
- 기본권을 침해하는 특정 AI 사용을 명시적으로 금지
- 거버넌스 체계
- AI 규제를 위한 EU 차원의 거버넌스 구조 수립
- 법률 체계
- 113개 규정과 13개의 부속서로 되어 있는 방대한 규정
목적 및 특징
목적
- EU 내에서 사용되는 AI 시스템에 대한 EU의 가치가 일관되게 적용될 수 있는 원칙 수립
- 인간 중심의 신뢰할 수 있는 AI 촉진
- AI 시스템으로부터의 안전, 환경 보호, 법치 등 기본권 보호
- 혁신 지원
특징
- 포괄적 규범의 성격
- 27개 회원국 시장에서의 AI 관련 규정을 통일 → AI 규범의 법적 확실성을 확보
- 회원국이 개별적으로 AI 시스템에 대한 규제를 강화하는 것을 방지 → AI 시스템의 개발, 수입 또는 운영자에게 법적 확실성 제공
- GDPR(General Data Protection Regulation, 유럽 일반 개인정보 보호법)과 마찬가지로 이 법률의 영토 관할권은 광범위함 → EU의 AI 사용자뿐만 아니라 EU에서 AI 시스템을 시장에 내놓거나 서비스하는 공급자도 관할
- 위험성에 기반을 두어 AI 시스템 규제를 차별화
- 위험 개념의 통일성 도모
- 위험성의 강도와 범위에 비례하여 규제 유형 분류
- 수용할 수 없는 AI 시스템의 활용 금지
- 고위험 AI 시스템의 준수사항 규정 → 이외에는 투명성 의무 부과
- EU가 발표한 디지털 서비스업(DSA), 디지털 시장법(DMA), 디지털 거버넌스법(DGA)과 같은 다른 법률과 상호 보완적인 역할
- 디지털 서비스업(Digital Service Act, DSA)
- 온라인 플랫폼의 투명성과 책임 강화 → 사용자 보호하는 것이 목적
- 콘텐츠 관리, 광고의 투명성, 사용자 권리 강화 등을 내용으로 함
- 디지털 시장법(Digital Markets Act, DMA)
- 대형 기술 회사의 시장 지배력을 제한하고 공정한 경쟁을 촉진하는 것이 목적
- 시장 지배적인 플랫폼에 대한 규제 강화, 경쟁 촉진 정책 실행 등을 내용으로 함
- EU에서 애플, 메타 과징금
- 디지털 거버넌스법(Digital Governmance Act, DGA)
- 데이터의 접근성 및 공유 개선 → 데이터 주도형 혁신 지원
- 데이터 접근 및 재사용을 위한 거버넌스 구조 확립, 데이터 보안과 개인정보보호 강화 등을 내용으로 함
Q.
애플과 같은 메가기업들은 저 법을 악법이라고 생각하려나요
만약 애플과 메타가 벌금을 내기를 거부한다면 유럽에서 철수를 해야하는건가요?
본사가 유럽이 아니니 해당 벌금을 안낸다고 하여 기업의 존폐가 결정되는것은 아니지 않나요??
A.
벌금 내기를 거부하면 유럽에서 판매를 못하게 됨

Q.
법이 생기면 지적 재산권에 대한 보호도 받게 되는 거겠군요. 그럼 혹시 그 전(법이 만들어 지기 전)에 사용해서 만든 프로그램들도 법에 재산권 무단사용에 대한 법적 처벌이 될 수도 있을까요?
A.
법 시행 이후의 행위에만 적용되지만 법 제정 이후 계속 해당 프로그램에서 무단 사용하거나 배포한다면 처벌 가능