제5장: AI와 자동화에 관한 윤리 제5장: AI와 자동화에 관한 윤리
오늘 내린 결정은 앞으로 수년 동안 영향을 미칠 것입니다.
모니터 앞에 화면이 투사된 상태에서 컴퓨터로 작업 중인 사람의 아이소메트릭 일러스트
윤리의 문제

비교적 새로운 기술인 생성형 AI는 비즈니스의 본질이 새롭게 정의될 것으로 예상되는 중요하고 역사적인 순간 앞에 AI를 데려다 놓았습니다. AI에 대한 투자가 급격하게 증가하는 오늘날의 환경에서, 특히 생성형 AI와 파운데이션 모델이 제시하는 가능성을 고려할 때, 이러한 투자의 지속성과 규정 준수, 유효성을 보장하기 위해서는 AI 윤리가 절대적으로 필요합니다. IBM은 신뢰란 회사의 윤리 문화에서 시작된다고 믿지만, 확장가능한 AI에는 엔드투엔드로 가동되는 거버넌스가 필요합니다. AI를 어디에 어떻게 도입할 것인지 지금 기업이 내리는 결정은 앞으로 수년간 영향을 미칠 것입니다.

모든 챕터 보기
추가 정보 보고서

생성형 AI를 위한 CEO 가이드

팩트: 설문조사에 참여한 임원 중 79%가 AI 윤리가 전사적 AI 접근 방식에 중요하다고 답한 반면, AI 윤리에 관한 일반 원칙을 운영 중이라고 응답한 비율은 25%가 채 되지 않았습니다. 생성형 AI를 위한 CEO 가이드
가드레일 마련

조직이 할 수 있는 일과 해야 하는 일 사이에는 중요한 차이가 있기 때문에 AI의 윤리와 거버넌스는 이사회 수준에서부터 조직 논의의 바탕이 되어야 합니다. 이는 AI가 내부적으로 사용되는 방식(근로자에게 미치는 잠재적 영향 평가)과 외부적으로 사용되는 방식(고객과 더 넓은 세상에 미치는 영향 평가)에 적용됩니다.

“AI를 도입하기 전에 기업이 할 수 있는 중요한 일 중 하나는 가장 낮은 수준에서 가장 높은 수준에 이르기까지 AI가 직무에 미치는 영향을 포함해 AI를 언제, 어디서 사용해야 하는지에 대한 가드레일을 마련하는 것입니다.” —Melissa Long Dolson

파운데이션 모델 상태, 직원과 고객의 개인정보 보호, 지식 재산 유지, 위험 관리, 규정 준수는 모두 이러한 가드레일의 일환이어야 합니다. 또한 어떤 보호 조치와 책임 계층을 마련할 것인지에 대한 명확한 비전이 있어야 합니다. 예를 들어 IBM은 책임감 있는 AI와 관련해 다음 세 가지 원칙 을 제시합니다.


  • AI의 목적은 인간의 지능을 보강하는 것
  • 데이터와 인사이트는 생성자의 소유
  • AI 시스템을 포함한 신기술은 투명하고 설명 가능해야 함

 



책임감 있는 AI 워크플로우 구축을 지원하는 AI 거버넌스
AI를 도입하기 전에 기업이 할 수 있는 중요한 일 중 하나는 AI를 언제, 어디서 사용해야 하는지에 대한 가드레일을 마련하는 것입니다. Melissa Long Dolson
새로운 역할과 이에 관한 대화

또한 AI와 IT 자동화를 효과적으로 관리하기 위한 새로운 역할도 고려해야 합니다. 예를 들어 최고 AI 윤리 책임자를 고용해야 하는지, AI 윤리학자나 AI 윤리 위원회도 필요한지, 아니면 이 세 가지가 모두 필요한지 생각해 볼 수 있습니다. 이러한 감독 역할 이외에도 AI 프롬프트 엔지니어, 딥 러닝 엔지니어, AI 챗봇 개발자, AI 디자이너, AI 감사관 등 새로운 직무가 빠르게 등장하고 있습니다. 이러한 모든 역할에는 책임감 있게 운영하는 방법에 대한 명확한 가이드라인이 필요합니다.

이러한 복잡한 대화에는 간단한 답이 없지만, 대화는 지금 당장 시작해야 합니다. AI로 인한 지각 변동은 이미 일어나고 있습니다. 세계 경제 포럼에서는 2025년까지 이러한 신기술로 인해 전 세계적으로 8,500만 개의 일자리가 사라질 것으로 예측합니다. 하지만 세계 경제 포럼은 동시에 9,700만 개의 새로운 역할이 창출될 것으로 추정하고 있습니다.1 이러한 새로운 인력은 AI로 역량이 보강되고 엄격한 윤리의식에 기반한 규칙을 따라야 합니다.

이 주제에 대해 더 심층적으로 알아보고 싶다면 IBM 생성형 AI 가이드의 일부인 책임감 있는 AI 및 윤리를 살펴보세요.

윤리는 위임할 수 없다
 
제6장 →
IBM과 함께 IT 자동화 시작하기
제6장 읽기 모든 챕터 보기