Responsible AI at Google Research: Technology, AI, Society and Culture

JBY·2023년 4월 21일
0

Team Technology, AI, Society and Culture(TASC)는 사회적으로 AI모델이 어떤 영향을 미치는지에 대해 연구하고 검토하는 팀입니다.

TASC 팀의 소개글을 DeepL을 통해 번역한 포스팅입니다.
원문링크

Google Research의 책임감 있는 AI: Technology, AI, Society and Culture


WEDNESDAY, APRIL 19, 2023
Posted by Lauren Wilcox, Senior Staff Research Scientist, on behalf of the Technology, AI, Society, and Culture Team

Google은 AI를 기초적이고 혁신적인 기술로 보고 있으며, 최근 LaMDA, PaLM, Imagen, Parti, MusicLM 및 이와 유사한 머신러닝(ML) 모델과 같은 Generative AI 기술이 발전하고 있으며, 그 중 일부는 현재 Google 제품에 통합되고 있습니다. 이러한 혁신적 잠재력을 활용하기 위해서는 기술을 발전시키는 방법뿐만 아니라 어떤 기술을 구축할지 구상하는 방법과 AI 및 ML 지원 기술이 세상에 미치는 사회적 영향을 평가하는 방법에서도 책임을 다해야 합니다. 이를 위해서는 AI 시스템의 개발과 배포에 영향을 미치는 사회적, 문화적, 경제적, 기타 맥락적 차원을 고려하는 학제 간 렌즈를 통한 기초 및 응용 연구가 필요합니다. 또한 이러한 기술의 지속적인 사용이 취약한 커뮤니티와 광범위한 사회 시스템에 미칠 수 있는 영향의 범위도 이해해야 합니다.

1

Theme 1: Culture, communities, & AI

우리의 주요 연구 분야 중 하나는 커뮤니티 참여적이고 문화적으로 포용적인 접근 방식을 통해 제너레이티브 AI 기술이 전 세계 사람들을 더욱 포용하고 가치 있게 만들 수 있는 방법을 발전시키는 것입니다. 이러한 목표를 달성하기 위해 우리는 커뮤니티를 각자의 맥락에서 전문가로 보고, 기술이 자신의 삶에 어떤 영향을 미칠 수 있는지, 그리고 어떻게 영향을 미쳐야 하는지에 대한 깊은 지식을 인정합니다. 우리의 연구는 ML 개발 파이프라인 전반에 걸쳐 문화 간 고려 사항을 포함시키는 것의 중요성을 지지합니다. 커뮤니티 참여를 통해 데이터 세트 큐레이션부터 평가에 이르기까지 파이프라인 전반에 걸쳐 가장 중요한 지식을 통합하는 방식을 바꿀 수 있습니다. 또한 기술이 실패하는 방식과 특정 커뮤니티가 어떤 피해를 경험할 수 있는지 이해하고 설명할 수 있습니다. 이러한 이해를 바탕으로 여러 차원에서 편견을 인식하고 완화하는 데 효과적인 책임감 있는 AI 평가 전략을 수립했습니다.

이 분야에서 Google의 작업은 전 세계의 다양한 이해관계자에게 Google의 기술이 안전하고, 효과가 있으며, 유용하게 사용될 수 있도록 하는 데 매우 중요합니다. 예를 들어, AI에 대한 사용자 태도, 책임감 있는 인터랙션 디자인, 공정성 평가에 대한 연구는 전 세계 남미를 중심으로 AI의 영향에 대한 문화 간 차이를 입증하고 문화적 상황에 맞는 평가를 가능하게 하는 리소스에 기여했습니다. 또한 최근 및 향후 개최 예정인 '문화 속 AI/AI의 문화', '컴퓨터 비전의 창의적 응용에서 윤리적 고려 사항', '자연어 처리에서 문화 간 고려 사항' 워크숍을 통해 AI, 문화, 사회 간의 관계를 조사하기 위한 학제 간 연구 커뮤니티를 구축하고 있습니다.

또한 최근 연구에서는 머신러닝 개발 및 응용 분야에서 상대적으로 덜 대표되는 것으로 알려진 특정 커뮤니티의 관점을 모색했습니다. 예를 들어, 자연어와 젠더 포용적 건강과 같은 맥락에서 성별 편견을 조사하여 이러한 기술을 개발하는 모든 사람이 퀴어 및 비이분법적 정체성을 가진 사람들의 피해를 식별하고 완화할 수 있도록 편견에 대한 보다 정확한 평가를 개발하기 위한 연구를 수행했습니다.

Theme 2: Enabling Responsible AI throughout the development lifecycle

우리는 개발 파이프라인 전반에 걸쳐 업계 전반의 RAI 모범 사례를 확립하고, 기술이 기본적으로 이러한 모범 사례를 검증 가능하게 통합하도록 함으로써 대규모 RAI를 구현하기 위해 노력합니다. 이러한 응용 연구에는 ML 개발을 위한 책임감 있는 데이터 생산 및 분석, 투명성, 공정성, 책임성과 같은 주요 RAI 목표를 달성하는 데 있어 실무자를 지원하는 도구와 관행을 체계적으로 발전시키는 것이 포함됩니다. 데이터 카드, 모델 카드 및 모델 카드 툴킷에 대한 이전 작업을 확장하여 데이터 카드 플레이북을 출시하여 개발자에게 데이터 세트와 관련된 적절한 사용 및 필수 사실을 문서화하는 방법과 도구를 제공합니다. ML 모델은 사람이 주석을 단 데이터로 학습하고 평가하는 경우가 많기 때문에, 데이터 주석에 대한 사람 중심의 연구도 진행하고 있습니다. 평가자의 의견 불일치와 평가자의 다양성을 고려하기 위해 주석 프로세스 및 방법을 문서화하는 프레임워크를 개발했습니다. 이러한 방법을 통해 ML 실무자는 현재의 장벽을 파악하고 데이터 작업 관행을 재구상함으로써 모델 학습에 사용되는 데이터 세트의 주석에 다양성을 더 잘 보장할 수 있습니다.

Future directions

우리는 이제 다양한 문화적 맥락과 목소리를 기술 설계, 개발, 영향 평가에 포함시켜 AI가 사회적 목표를 달성할 수 있도록 하는 접근 방식을 통해 ML 모델 개발에 대한 참여를 더욱 확대하기 위해 노력하고 있습니다. 또한 오늘날의 세계에서 사용되는 예를 들어, 커뮤니티 중심의 평가 프레임워크, 벤치마크, 데이터 세트 큐레이션 및 공유 등 업계 AI 연구 및 개발에서 커뮤니티 참여를 활성화할 수 있는 프레임워크와 구조를 개발하고 있습니다.

특히 자연어 처리 언어 모델이 장애인에 대한 편견을 어떻게 지속시킬 수 있는지에 대한 이전 연구를 더욱 발전시켜, 소외된 다른 커뮤니티와 문화를 다루고 이미지, 비디오 및 기타 멀티모달 모델을 포함하도록 이 연구를 확장하고 있습니다. 이러한 모델에는 특정 집단에 대한 비유와 고정관념이 포함되어 있거나 특정 개인이나 커뮤니티의 경험을 지울 수 있습니다. 머신러닝 모델 내 편견의 근원을 파악하려는 노력은 이러한 표현의 폐해를 더 잘 감지하고 보다 공정하고 포용적인 시스템을 구축하는 데 도움이 될 것입니다.

TASC는 개인과 커뮤니티, 문화와 사회에 이르기까지 AI와 사람 사이의 모든 접점을 연구하는 것을 목표로 합니다. AI가 문화적으로 포용적이고, 공평하며, 접근성이 뛰어나고, 영향을 받는 커뮤니티의 요구를 반영하기 위해서는 영향을 받는 커뮤니티의 요구를 중심으로 한 학제 간 및 다학제 간 연구를 통해 이러한 과제를 해결해야 합니다. 우리는 사회와 AI 간의 상호작용을 지속적으로 탐구하고, 더 강력하고 문화적으로 적합한 AI 기술을 개발하기 위해 AI를 개발하고 평가하는 새로운 방법을 발견해 나갈 것입니다.

Acknowledgements

이 블로그 게시물에 기여해 주신 모든 팀원분들께 감사드립니다. 성의 알파벳 순서대로: Cynthia Bennett, Eric Corbett, Aida Mostafazadeh Davani, Emily Denton, Sunipa Dev, Fernando Diaz, Mark Díaz, Shaun Kane, Shivani Kapania, Michael Madaio, Vinodkumar Prabhakaran, Rida Qadri, Renee Shelby, Ding Wang 및 Andrew Zaldivar. 또한 귀중한 피드백과 제안을 보내주신 Toju Duke와 Marian Croak에게도 감사의 말씀을 전합니다.

profile
안녕하세요?

0개의 댓글