AI 편향이 해결되지 않으면 조직의 성공에 영향을 미치고 사람들의 경제 및 사회 참여 능력에 방해가 될 수 있습니다. 편향은 AI의 정확성을 떨어뜨리고, 따라서 잠재력을 감소시킵니다.
기업은 왜곡된 결과를 생성하는 시스템으로부터 혜택을 받을 가능성이 낮아집니다. 또한 AI 편향으로 인한 스캔들은 유색인종, 여성, 장애인, 성소수자 커뮤니티 또는 기타 소외된 집단 사이에서 불신을 조장할 수 있습니다.
AI의 기반이 되는 모델은 학습된 방대한 데이터에 은밀하게 내재된 사회의 편견을 흡수합니다. 사회적 불평등을 반영하는 역사적으로 편향된 데이터 수집은 채용, 치안, 신용 점수 등 다양한 사용 사례에서 역사적으로 소외된 집단에게 피해를 줄 수 있습니다. 월스트리트 저널(Wall Street Journal)에 따르면, "인공 지능의 사용이 보편화됨에 따라 기업들은 여전히 만연한 편견 문제를 해결하기 위해 고군분투하고 있습니다."1
AI가 편견으로 인해 실수를 저지르면(예: 특정 집단에 대한 기회 거부, 사진 속 오인, 부당한 처벌 등) 해당 조직은 브랜드와 평판에 손상을 입게 됩니다. 동시에 해당 집단에 속한 사람들과 사회 전체가 자신도 모르는 사이에 피해를 입을 수 있습니다. 다음은 AI의 불균형과 편향, 그리고 이로 인해 발생할 수 있는 피해에 대한 몇 가지 대표적인 사례입니다.
의료 분야에서 여성이나 소수 민족에 대한 데이터가 부족하면 예측 AI 알고리즘이 왜곡될 수 있습니다.2 예를 들어, 컴퓨터 지원 진단(CAD) 시스템은 백인 환자보다 아프리카계 미국인 환자의 경우 정확도가 낮은 결과를 반환하는 것으로 나타났습니다.
AI 툴을 활용하면 이력서를 자동으로 스캔하여 이상적인 후보자를 식별하는 과정을 간소화할 수 있지만, 요청된 정보와 선별된 답변이 그룹에 따라 불균형한 결과를 초래할 수 있습니다. 예를 들어, 채용 공고에 '닌자'라는 단어가 포함되면 해당 단어가 직무 요건과 전혀 관련이 없음에도 불구하고 여성보다 남성 지원자가 더 많이 몰릴 수 있습니다.3
Bloomberg는 이미지 생성 테스트의 일환으로 5,000개 이상의 AI 이미지를 생성하도록 요청했고, 그 결과 "Stable Diffusion에 따르면 세상은 백인 남성 CEO가 운영합니다. 여성은 의사, 변호사, 판사가 거의 없습니다. 피부가 어두운 남성은 범죄를 저지르고, 피부가 어두운 여성은 햄버거를 뒤집는 일을 합니다."라는 결과를 얻었습니다.4Midjourney도 비슷한 방식으로 전문 직종에 종사하는 사람들의 이미지를 요청해 AI 예술 생성에 대한 연구를 진행했습니다. 그 결과 젊은 사람과 나이든 사람 모두 등장했지만 나이든 사람은 항상 남성으로 나타나 직장에서 여성의 역할에 대한 성별 편견이 강화되었습니다.5
형사 사법 시스템의 일부 조직에서 사용하는 AI 기반 예측 치안 도구는 범죄가 발생할 가능성이 있는 지역을 식별하는 데 사용됩니다. 그러나 과거의 체포 데이터에 의존하는 경우가 많으며, 이는 기존의 인종 프로파일링 패턴과 소수 민족 커뮤니티에 대한 불균형적인 표적화를 심화시킬 수 있습니다.6
왜곡된 결과는 조직과 사회 전반에 해를 끼칠 수 있습니다. 다음은 몇 가지 일반적인 AI 편향의 유형입니다.7
집단 동질성 편향: 자신이 무엇을 모르는지 모르는 경우입니다. 사람들은 자신이 속한 그룹인 인그룹 구성원에 대해 더 잘 이해하고 아웃그룹 구성원보다 더 다양하다고 생각하는 경향이 있습니다. 그 결과 개발자는 학습 데이터에서 다수 집단에 속하지 않는 개인을 구별하지 못하는 알고리즘을 만들어 인종 편향, 오분류 및 오답을 초래할 수 있습니다.
편향 함정을 피하기 위한 첫 번째 단계는 처음부터 한 걸음 물러서서 AI 작업에 대해 생각해 보는 것입니다. 거의 모든 비즈니스 과제에서 그렇듯이, 문제가 발생하고 나서야 손상된 결과를 정리하는 것보다 미리 문제를 해결하는 것이 훨씬 쉽습니다. 그러나 많은 조직이 성급하게 진행하며 단기적인 비용 절감에 집중하다가 오히려 더 큰 비용을 초래하는 우를 범하고 있습니다.
AI의 편견을 파악하고 해결하려면 AI 거버넌스, 즉 조직의 AI 활동을 관리하고 모니터링하는 능력이 필요합니다. 실제로 AI 거버넌스는 AI 기술의 책임감 있는 개발과 사용을 안내하는 일련의 정책, 관행 및 프레임워크를 만듭니다. AI 거버넌스가 잘 수행되면 기업, 고객, 직원, 사회 전체에 균형 잡힌 혜택이 제공될 수 있습니다.
AI 거버넌스에는 공정성, 형평성 및 포용성을 평가하는 방법이 포함되는 경우가 많습니다. 사실과 반대되는 공정성과 같은 접근 방식은 모델의 성별, 인종 또는 성적 지향과 같은 민감한 속성이 포함된 경우에도 모델의 의사 결정에서 편향을 식별하고 공평한 결과를 보장합니다.
AI는 복잡하기 때문에 알고리즘은 알고리즘을 생성하는 데 사용된 데이터에 대한 인사이트가 거의 없는 블랙박스 시스템이 될 수 있습니다. 투명성 관행과 기술은 편향되지 않은 데이터를 사용하여 시스템을 구축하고 공정한 결과를 보장하는 데 도움이 됩니다. 고객의 정보를 보호하기 위해 노력하는 기업은 브랜드 신뢰를 구축하고 신뢰할 수 있는 AI 시스템을 만들 가능성이 더 높습니다.
또 다른 품질 보증 계층을 제공하려면 '휴먼 인 더 루프(Human-in-the-loop)' 시스템을 도입하여 옵션을 제공하거나 사람의 결정을 통해 승인할 수 있는 권장 사항을 제시하세요.
다음은 AI 프로그램이 편향되지 않도록 하는 6가지 프로세스 단계의 체크리스트입니다.
1. 올바른 학습 모델 선택:
2. 올바른 데이터로 학습: 잘못된 데이터로 학습된 머신 러닝은 잘못된 결과를 생성합니다. AI에 입력되는 모든 데이터는 고려 대상 그룹의 실제 인구 통계를 재현할 수 있도록 완전하고 균형 잡힌 데이터여야 합니다.
3. 균형 잡힌 팀 선택: 인종, 경제 수준, 교육 수준, 성별, 업무 내용 등 AI 팀의 구성이 다양할수록 편견을 인식할 가능성이 높아집니다. 균형 잡힌 AI 팀의 재능과 관점에는 AI 비즈니스 혁신가, AI 크리에이터, AI 구현자, 그리고 특정 AI 노력의 소비자를 대표하는 사람이 포함되어야 합니다.9
4. 신중한 데이터 처리 수행: 기업은 데이터를 처리할 때 각 단계에서 편향성을 인식해야 합니다. 위험은 데이터 선택에만 있는 것이 아닙니다. 사전 처리, 처리 중, 사후 처리 등 어느 단계에서든 편향이 개입하여 AI에 영향을 미칠 수 있습니다.
5. 지속적인 모니터링: 어떤 모델도 완전하거나 영구적이지 않습니다. 조직 전체의 실제 데이터를 사용하여 지속적으로 모니터링하고 테스트하면 편향이 문제를 일으키기 전에 이를 감지하고 수정하는 데 도움이 될 수 있습니다. 편향을 더욱 방지하기 위해 조직은 조직 내부의 독립적인 팀이나 신뢰할 수 있는 제3자의 평가를 고려해야 합니다.
6. 인프라 문제 방지: 사람과 데이터의 영향 외에도 인프라 자체가 편향을 유발할 수 있습니다. 예를 들어, 기계 센서에서 수집한 데이터를 사용하는 경우 센서가 오작동하면 장비 자체가 편향을 주입할 수 있습니다. 이러한 종류의 편향은 감지하기 어려울 수 있으며 최신 디지털 및 기술 인프라에 대한 투자가 필요합니다.
EU 인공지능법(EU AI Act)이 비즈니스에 미칠 영향, 이에 대비하는 방법, 위험을 완화하는 방안 및 규제와 혁신의 균형을 맞추는 방법을 알아보세요.
생성형 AI의 새로운 도전 과제, AI 및 ML 모델 거버넌스의 필요성, 신뢰할 수 있고 투명하며 설명하기 쉬운 AI 프레임워크를 구축하기 위한 단계를 살펴보세요.
생성형 AI 모델을 위한 AI 제품 포트폴리오를 통해 윤리적이고 규정을 준수하는 관행을 추진하는 방법을 읽어보세요.
watsonx.governance를 통해 공정성을 확보하고, 드리프트를 관리하며, 품질을 유지하고 더 명확하게 설명하는 방법에 대해 자세히 알아보세요.
IBM watsonx.governance를 사용하여 어디서나 생성형 AI 모델을 관리하고 클라우드 또는 온프레미스에 배포하세요.
IBM Consulting의 도움을 받아 EU AI 법에 대비하고 책임감 있는 AI 거버넌스 접근 방식을 확립하세요.
통합 GRC 플랫폼으로 위험 및 규정 준수 관리 방법을 간소화하세요.
1The Wall Street Journal: AI의 부상, 알고리즘의 편향에 대한 관심 집중
2 Booz Allen Hamilton: 의료 분야의 인공 지능 편향
3 LinkedIn: AI 편향 줄이기 — HR 리더를 위한 가이드
4 Bloomberg: 인간도 편향적이지만, 생성형 AI는 더욱 심각
5 The Conversation US: 연령 차별, 성차별, 계급 차별 등 — AI 생성 이미지에서 나타내는 7가지 편향 사례
6 Technology Review: 예측 치안 시스템은 어떤 데이터를 사용하든 여전히 인종차별적
7 Tech Target: 머신 러닝 편향(AI 편향)
Chapman University AI Hub: AI의 편향
AIMultiple: AI의 편향 - 정의, 유형, 사례 & 2023년 AI 편향 해결을 위한 6가지 방법
8 McKinsey: 인공지능(및 인간의) 편향 문제 해결
9 Forbes: 편향된 AI의 문제점(그리고 AI를 더 나아지게 하는 방법)