topics

AI 윤리

AI 윤리란 무엇인가요?
IBM의 AI 윤리 솔루션 살펴보기 AI 업데이트 신청
구름의 픽토그램, 파이 차트, 그래프 픽토그램의 콜라주가 있는 그림
AI 윤리란 무엇인가요?

윤리는 옳고 그름을 분별할 수 있도록 하는 도덕 원칙입니다. AI 윤리는 위험과 부정적인 결과를 줄이면서 AI가 가져다주는 유익한 영향을 최적화하는 방법을 연구하는 다학문 분야입니다.

AI 윤리 문제의 예로는 데이터 책임 및 개인정보 보호, 공정성, 설명 가능성, 완강성, 투명성, 환경적 지속 가능성, 포용성, 도덕적 기능, 가치 일치, 책임성, 신뢰, 기술 오용 등이 있습니다. 이 글은 오늘날 업계의 AI 윤리에 대한 포괄적인 시장 관점을 제공하는 것을 목표로 합니다. IBM의 관점을 자세히 알아보려면 여기에서 AI 윤리 페이지를 참조하세요.

빅 데이터의 출현으로 기업은 조직 전반에서 자동화 및 데이터 기반 의사 결정을 추진하는 데 더욱 집중하고 있습니다. 항상 그런 것은 아니더라도 일반적으로 비즈니스 결과를 개선하려는 의도가 있지만, 기업은 특히 부실한 사전 연구 설계와 편향된 데이터 세트로 인해 일부 AI 애플리케이션에서 예상치 못한 결과를 경험하고 있습니다.

불공정한 결과 사례가 드러나면서, 주로 연구 및 데이터 과학 커뮤니티에서 AI의 윤리에 대한 우려를 해결하기 위한 새로운 가이드라인이 등장했습니다. AI 분야의 선도적인 기업들도 자사 제품에서 윤리 기준을 지키지 못했을 때 어떤 결과가 초래되는지 직접 경험했기 때문에 이러한 가이드라인을 만드는 데 관심을 갖고 있습니다. 이 영역에서는 성실하지 못하면 평판, 규제 및 법적 위험으로 이어질 수 있으며, 이는 비용이 많이 드는 벌금으로 이어질 수 있습니다. 모든 기술 발전과 마찬가지로, 새롭게 부상하는 분야에서는 혁신이 정부 규제보다 앞서 나가는 경향이 있습니다. 정계에서 적절한 전문 지식이 발전함에 따라 기업이 따라야 할 AI 프로토콜도 더 많아지게 되어 인권과 시민의 자유에 대한 침해를 피할 수 있을 것으로 기대됩니다.

현재 사용 가능한 제품: watsonx.governance

타사 플랫폼에 구축된 생성형 AI를 위한 책임감 있고 투명하며 설명 가능한 워크플로를 가속화합니다.

관련 내용
eBook
AI 데이터 저장소에 관한 eBook 등록하기
안내서
애플리케이션, 분석 및 생성형 AI에 적합한 데이터베이스를 활용하는 방법을 알아보세요.
AI 윤리 원칙 수립

AI 사용을 관리하기 위한 규칙과 프로토콜이 개발되는 동안, 학계에서는 벨몬트 보고서(Belmont Report)(ibm.com 외부 링크)를 실험 연구와 알고리즘 개발 내에서 윤리의 길잡이 수단으로 활용했습니다. 벨몬트 보고서에서 나온 실험 및 알고리즘 설계의 가이드 역할을 하는 세 가지 주요 원칙은 다음과 같습니다.

  1. 인간 존중: 이 원칙은 개인의 자율성을 인정하고 연구자가 질병, 정신 장애, 연령 제한과 같은 다양한 상황으로 인해 자율성이 저하된 개인을 보호해야 한다는 기대를 지지합니다. 이 원칙은 주로 동의라는 개념을 다룹니다. 개인은 자신이 참여하는 모든 실험의 잠재적 위험과 이점을 알고 있어야 하며 실험 전과 실험 중에 언제든지 참여 또는 철회하기를 선택할 수 있어야 합니다.
  2. 선행: 의사가 '해를 끼치지 않겠다'고 맹세하는 의료 윤리에서 가져왔습니다. 인공지능을 개발함에 있어 알고리즘이 주어진 시스템을 개선하고 선을 행하려는 의도를 가지더라도 인종, 성별, 정치적 성향 등에 대한 편견을 증폭시킬 수 있는 상황에 적용할 수 있습니다.
  3. 정의: 이 원칙은 공정성, 평등 등의 문제를 다룹니다. 실험과 머신 러닝의 이점을 누가 누릴 수 있을까요? 벨몬트 보고서는 부담과 이점을 분배하는 다섯 가지 방법을 제시합니다. 그 방법은 다음과 같습니다.
    • 균등 분배
    • 개인의 필요성
    • 개인의 노력
    • 사회적 기여
    • 장점
관련 링크 IBM AI 윤리 알고리즘 안전 관행을 시행하기 위한 5단계
오늘날 AI의 주요 관심사

현실 세계에서 AI 기술을 둘러싼 윤리적 논의의 최전선에는 여러 가지 이슈가 있습니다. 여기에는 다음이 포함됩니다.

파운데이션 모델 및 생성형 AI

2022년 ChatGPT의 출시는 인공 지능의 진정한 변곡점이었습니다. 법률 문서 작성부터 코드 디버깅에 이르기까지 OpenAI 챗봇의 능력은 거의 모든 산업 분야에서 AI가 할 수 있는 일과 적용 방법에 대한 수많은 새로운 가능성을 열어 주었습니다. ChatGPT 및 이와 유사한 도구는 광범위한 다운스트림 작업에 적용할 수 있는 AI 모델인 파운데이션 모델을 기반으로 합니다. 파운데이션 모델은 일반적으로 수십억 개의 매개 변수로 구성된 대규모 생성 모델로, 자체 지도를 사용하여 라벨이 지정되지 않은 데이터를 학습합니다. 파운데이션 모델은 이를 통해 한 컨텍스트에서 학습한 내용을 다른 컨텍스트에 빠르게 적용할 수 있으므로 적응력이 매우 뛰어나고 폭넓은 다양한 작업을 수행할 수 있습니다. 그러나 기술 업계에는 일반적으로 인식되는 파운데이션 모델과 관련하여 편향, 허위 콘텐츠 생성, 설명 가능성 부족, 오용, 사회적 영향과 같은 많은 잠재적 문제와 윤리적 우려가 있습니다. 이러한 문제 중 다수는 일반적으로 AI와 관련이 있지만, 파운데이션 모델의 힘과 가용성에 비추어 볼 때 새로운 긴급성을 띠고 있습니다.

기술적 특이점

이 주제는 대중의 많은 관심을 받고 있지만, 많은 연구자들은 가까운 미래 또는 아주 금방 AI가 인간의 지능을 능가할 것이라는 생각에 우려하지는 않습니다. 이를 초지능이라고도 하는데, 닉 보스트럼(Nick Bostrum)은 초지능을 '과학적 창의성, 보편적인 지혜, 사회적 기술을 비롯한 거의 모든 분야에서 최고의 인간 두뇌를 훨씬 능가하는 지성'이라고 정의합니다. 강력한 AI와 초지능이 우리 사회에 임박한 것은 아니지만, 자율 주행차와 같은 자율 시스템의 사용을 고려할 때 이러한 아이디어는 몇 가지 흥미로운 질문을 제기합니다. 무인 자동차가 절대 교통 사고를 일으키지 않을 것이라고 생각하는 것은 비현실적이지만, 그런 상황에서는 누가 책임지고 책임을 져야 할까요? 자율 주행차를 계속 개발해야 할까요, 아니면 이 기술의 통합을 제한하여 운전자들의 안전을 도모하는 반자율 주행차만 개발해야 할까요? 이에 대한 판단은 아직 내려지지 않았지만, 새롭고 혁신적인 AI 기술이 발전함에 따라 이러한 유형의 윤리적 논쟁이 일어나고 있습니다.

AI가 일자리에 미치는 영향

인공 지능에 대한 많은 대중의 인식이 일자리 감소에 집중되어 있지만, 이러한 우려는 아마도 재구성되어야 할 것입니다. 파괴적인 신기술이 등장할 때마다 특정 직무에 대한 시장 수요가 변화하고 있습니다. 예를 들어, 자동차 산업을 살펴보면 GM과 같은 많은 제조 업체가 친환경 이니셔티브에 맞춰 전기 자동차 생산에 집중하는 방향으로 전환하고 있습니다. 에너지 산업은 사라지지 않지만, 에너지원은 연비에서 전력 소비율로 바뀌고 있습니다. 인공 지능도 이와 비슷한 방식으로 봐야 합니다. 인공 지능은 일자리 수요를 다른 영역으로 이동시킬 것입니다. 데이터가 매일 증가하고 변화함에 따라 이러한 시스템을 관리할 수 있는 사람이 필요합니다. 고객 서비스와 같은 직업 수요 변화의 영향을 받을 가능성이 가장 높은 산업 내에서 더 복잡한 문제를 해결하기 위해서는 여전히 인력이 필요합니다. 인공 지능의 중요한 측면과 그것이 고용 시장에 미치는 영향은 개인이 이러한 새로운 시장 수요 영역으로 전환할 수 있도록 도울 것입니다.

개인 정보 보호

개인정보 보호는 데이터 개인정보 보호, 데이터 보호 및 데이터 보안의 맥락에서 논의되는 경향이 있으며, 이러한 우려 덕분에 최근 몇 년 동안 정책 입안자들이 이 분야에서 더 많은 진전을 이룰 수 있었습니다. 예를 들어, 2016년에는 유럽 연합 및 유럽 경제 지역에 거주하는 사람들의 개인 데이터를 보호하기 위해 GDPR 법안이 제정되어 개인이 자신의 데이터를 더 잘 통제할 수 있게 되었습니다. 미국에서는 캘리포니아 소비자 개인 정보 보호법(California Consumer Privacy Act,CCPA)과 같은 정책을 개별 주에서 개발하고 있으며, 이 법은 기업이 데이터 수집에 대해 소비자에게 알리도록 요구합니다. 이러한 최근 법률로 인해 기업은 개인 식별 데이터(PII)를 저장하고 사용하는 방법을 다시 생각해야 했습니다. 그 결과, 보안에 대한 투자는 감시, 해킹 및 사이버 공격에 대한 취약성과 기회를 제거하고자 하는 기업에서 점점 더 우선순위가 되고 있습니다.

편견과 차별

여러 지능형 시스템에서 발생하는 편향과 차별로 인해 인공 지능 사용과 관련하여 많은 윤리적 문제가 제기되었습니다. 학습 데이터 세트가 자체적으로 편향을 생성할 수 있는 와중에 어떻게 하면 편향과 차별을 방지할 수 있을까요? 기업은 일반적으로 자동화 노력에 선의의 의도를 가지고 임하지만, AI를 채용 관행에 통합하면 예상치 못한 결과가 발생할 수 있습니다. 프로세스를 자동화하고 단순화하려는 노력의 일환으로 Amazon은 의도치 않게 잠재적 입사 지원자를 성별에 따라 공개 기술 역할로 편향했고(ibm.com 외부 링크) , 결국 프로젝트를 폐기해야 했습니다. 이와 같은 사건이 드러나자 Harvard Business Review(ibm.com 외부 링크)는 채용 관행에서의 AI 사용에 관한 다른 중요한 질문을 제기했습니다. 예를 들어, 직무 지원자를 평가할 때 어떤 데이터를 사용해야 하는지와 같은 질문도 제기되었습니다.

편향과 차별은 인사 부서에만 국한되지 않습니다. 얼굴 인식 소프트웨어부터 소셜 미디어 알고리즘에 이르기까지 다양한 애플리케이션에서 찾을 수 있습니다.

기업들이 AI의 위험성에 대해 더 많이 인식하게 되면서 AI 윤리 및 가치에 대한 논의도 활발해졌습니다. 예를 들어, 작년에 IBM의 CEO 아르빈드 크리슈나(Arvind Krishna)는 IBM이 범용 IBM 안면 인식 및 분석 제품을 사용 중지한다고 언급하면서 “IBM은 대량 감시, 인종 프로파일링, 기본 인권 및 자유 침해 또는 우리의 가치와 신뢰 및 투명성 원칙과 일치하지 않는 목적을 위해 다른 공급 업체에서 제공하는 안면 인식 기술을 포함한 모든 기술을 사용하는 것을 단호히 반대하며 이를 용납하지 않을 것”이라고 강조했습니다.

책임

AI 관행을 규제하는 보편적이고 포괄적인 법률은 없지만, 많은 국가와 주에서 이를 현지에서 개발하고 시행하기 위해 노력하고 있습니다. 현재 일부 AI 규제가 시행되고 있으며, 더 많은 규제가 곧 시행될 예정입니다. 이러한 격차를 해소하기 위해 윤리학자와 연구자 간의 협업의 일환으로 윤리 프레임워크가 등장하여 사회 내 AI 모델의 구축 및 배포를 관리하게 되었습니다. 그러나 현재로서 이러한 것들은 지침이 될 뿐이며, 연구(ibm.com 외부 링크)에 따르면 책임의 분산과 잠재적 결과에 대한 선견지명의 부족으로 인해 사회에 미치는 피해를 방지하는 데 반드시 도움이 되지 않는 것으로 나타났습니다.

AI 윤리 확립 방법

인공 지능은 설계, 개발, 학습, 조정 및 사용 방식에 따라 수행되며, AI 윤리는 AI 시스템 수명 주기의 모든 단계에 걸쳐 윤리적 표준 및 가드레일 생태계를 구축하는 것에 관한 모든 것입니다.

조직, 정부 및 연구원 모두 현재의 AI 윤리적 문제를 해결하고 해당 분야 내 업무의 미래를 형성하기 위한 프레임워크를 구성하기 시작했습니다. 이러한 지침에 매일 더 많은 구조가 더해지며, 다음과 같은 내용을 통합하는 데는 어느 정도 합의가 이루어졌습니다.

거버넌스

거버넌스는 내부 정책 및 프로세스, 직원 및 시스템을 통해 AI 수명 주기를 감독하는 조직의 행위입니다. 거버넌스는 AI 시스템이 조직의 원칙과 가치가 의도한 대로, 이해 관계자가 기대하는 대로, 관련 규정에서 요구하는 대로 운영될 수 있도록 합니다. 성공적인 거버넌스 프로그램은 다음과 같습니다.

  • AI로 일하는 사람들의 역할과 책임을 정의합니다.

  • AI 수명 주기에 관련된 모든 사람에게 책임감 있는 방식으로 AI를 구축하는 방법을 교육합니다.

  • AI 및 AI 위험에 대하여 구축하고 관리하며 모니터링 및 커뮤니케이션하기 위한 프로세스를 설정합니다.

  • 도구를 활용하여 AI 수명 주기 전반에 걸쳐 AI의 성능과 신뢰성을 개선합니다.

AI 윤리 위원회는 특히 효과적인 거버넌스 메커니즘입니다. IBM의 AI 윤리 위원회는 비즈니스 전반의 다양한 리더로 구성되어 있습니다. IBM 윤리 정책 및 관행에 대한 중앙 집중식 거버넌스, 검토 및 의사 결정 프로세스를 제공합니다. IBM의 AI 윤리 위원회를 자세히 알아보세요.

원칙 및 중점 영역

AI 윤리에 대한 조직의 접근 방식은 신뢰할 수 있는 AI를 구현하기 위해 조직 전체의 제품, 정책, 프로세스 및 관행에 적용할 수 있는 원칙에 따라 이루어질 수 있습니다. 이러한 원칙은 설명 가능성 또는 공정성과 같은 중점 영역을 중심으로 구성되고 뒷받침되어야 하며, 이를 중심으로 표준을 개발하고 관행을 조정할 수 있어야 합니다.

윤리를 핵심으로 한 AI가 구축되면 사회에 좋은 영향을 미칠 수 있는 엄청난 잠재력을 갖추게 됩니다. 방사선 과학과 같은 의료 분야로의 통합에서 이러한 현상이 나타나기 시작했습니다. AI 윤리에 관한 대화는 설계 단계부터 AI 사용과 관련된 발생 가능한 위험을 적절하게 평가하고 완화하는 데에도 중요합니다.

AI 윤리를 촉진하는 조직

윤리 기준은 민간 부문의 데이터 엔지니어와 데이터 과학자의 주요 관심사가 아니기 때문에 인공 지능 분야의 윤리적 행동을 장려하려는 여러 조직이 등장했습니다. 더 많은 정보를 찾고자 하는 사람들을 위해 다음 조직 및 프로젝트는 AI 윤리를 제정하기 위한 자원을 제공합니다.

AI 윤리에 대한 IBM의 관점

또한 IBM은 AI 윤리에 대한 독자적인 관점을 확립하여 고객이 AI와 관련된 논의에서 IBM의 가치가 어디에 있는지 이해할 수 있도록 신뢰 및 투명성 원칙을 만들었습니다. IBM은 데이터 및 AI 개발에 대한 접근 방식을 규정하는 세 가지 핵심 원칙을 가지고 있으며, 이는 다음과 같습니다.

  1. AI의 목적은 인간의 지능을 보강하는 것 이는 인간의 지능을 AI로 대체하려는 것이 아니라, 지원한다는 것을 의미합니다. 모든 새로운 기술 혁신은 특정 직무의 수요와 공급에 대한 변화를 수반하기 때문에, IBM은 이 기술에 대한 기술 교육을 촉진하기 위한 글로벌 이니셔티브에 투자함으로써 이러한 전환에서 근로자를 지원하고자 최선을 다하고 있습니다.
  2. 데이터와 인사이트는 생성자의 소유 IBM 고객은 자신만이 자신의 데이터를 소유하고 있다는 사실에 안심할 수 있습니다. IBM은 감시 프로그램을 위해 고객 데이터에 대한 정부의 액세스 권한을 제공하지 않았으며 앞으로도 제공하지 않을 것이며, 고객의 개인정보를 보호하기 위해 최선을 다하고 있습니다.
  3. 투명하고 설명 가능해야 하는 AI 시스템 의무 IBM은 기술 기업이 누가 AI 시스템을 학습시키는지, 그 학습에 어떤 데이터가 사용되었는지, 그리고 가장 중요하게는 알고리즘의 권장 사항에 무엇이 포함되었는지에 관해 명확해야 한다고 생각합니다.

IBM은 또한 AI 기술의 책임 있는 도입을 안내하기 위해 다섯 가지 원칙을 개발했습니다. 이는 다음과 같습니다.

  • 설명 가능성: AI 시스템은 다양한 목표를 가진 다양한 이해 관계자와 관련이 있으므로 특히 알고리즘의 권장 사항에 포함된 내용에 있어 투명해야 합니다.
  • 공정성: 이는 AI 시스템이 개인 또는 개인 그룹을 공평하게 대우하는 것을 의미합니다. 적절하게 교정된 AI는 인간이 더 공정한 선택을 하고 인간의 편견에 맞서며 포용성을 촉진하도록 도울 수 있습니다.
  • 완강성: AI 기반 시스템은 적의 공격으로부터 적극적으로 방어하여 보안 위험을 최소화하고 시스템 결과에 대한 신뢰를 확보할 수 있어야 합니다.
  • 투명성: 신뢰를 강화하려면 사용자가 서비스의 작동 방식을 확인하고 기능을 평가하며 서비스의 강점과 한계를 이해할 수 있어야 합니다.
  • 개인정보 보호: AI 시스템은 소비자의 개인정보 보호 및 데이터 권리를 우선시하고 보호해야 하며, 사용자에게 개인 데이터가 어떻게 사용되고 보호되는지 명확히 보증해야 합니다.

이러한 원칙과 중점 영역은 AI 윤리에 대한 접근 방식의 기반을 형성합니다. IBM의 윤리와 인공 지능 견해를 자세히 알아보려면 여기를 클릭해 읽어 보세요.

 

관련 솔루션
IBM의 AI 윤리

신뢰할 수 있는 AI를 위한 IBM의 다학문적, 다차원적 접근 방식

IBM의 AI 윤리 살펴보기
IBM Watson Studio

AI 모델을 구축하고 실행하며 관리합니다. 오픈 소스 코드 또는 시각적 모델링을 사용하여 모든 클라우드에서 데이터를 준비하고 모델을 구축합니다. 결과를 예측하고 최적화합니다.

Watson Studio 알펴보기
IBM watsonx.governance

책임감 있고 투명하며 설명 가능한 AI 워크플로를 구축하세요.

IBM watsonx.governance 살펴보기
다음 단계 안내

생성 모델과 머신 러닝 모델 모두를 위해 수명 주기 전반에 걸쳐 책임감 있고 투명하며 설명 가능한 AI 워크플로우를 가속화하세요. 조직의 AI 활동을 지시, 관리 및 모니터링하여 증가하는 AI 규정을 더 잘 관리하고 위험을 감지 및 완화할 수 있습니다.

watsonx.governance 살펴보기 라이브 데모 예약하기