Este artigo tem como objetivo fornecer uma visão abrangente do mercado de ética na inteligência artificial (IA) para o cenário atual do setor. Para saber mais sobre o ponto de vista da IBM, acesse a nossa página de ética da IA.
A ética é um conjunto de princípios morais que pode nos ajudar a discernir o que é certo e o que é errado. A ética na IA é um conjunto de diretrizes que sugerem como a inteligência artificial deve ser criada e quais devem ser seus resultados. Os vieses cognitivos são inerentes aos seres humanos, como o viés da recência e da confirmação, além daqueles que estão presentes em nossos comportamentos e, consequentemente, em nossos dados. Como os dados são a base para todos os algoritmos de machine learning, é importante para nós estruturar experimentos e algoritmos com isso em mente, pois a inteligência artificial tem o potencial de ampliar e escalar esses vieses humanos em um ritmo sem precedentes.
Com o surgimento do big data, as empresas aumentaram seu foco em promover a automação e a tomada de decisões orientadas por dados em suas organizações. Embora a intenção seja geralmente, se não sempre, melhorar negócios, as empresas estão enfrentando consequências não previstas em alguns de seus aplicativos de IA, especificamente, devido ao projeto de pesquisa inicial e aos conjuntos de dados tendenciosos.
À medida que surgiam resultados incertos, foi necessário estabelecer novas diretrizes, principalmente das comunidades de pesquisa e ciência de dados, para atender às preocupações relacionadas à ética na IA. As empresas líderes na área de IA também demonstraram interesse em colaborar com essas diretrizes, pois também começaram a observar algumas consequências por falha em manter padrões éticos em seus produtos. A falta de diligência nesta área pode gerar risco reputacional, regulamentar e jurídico, resultando em multas onerosas. Como acontece com todos os avanços tecnológicos, a inovação tende a avançar mais rápido que a regulamentação do governo em áreas novas e emergentes. À medida que o conhecimento adequado se desenvolve dentro do setor público, podemos esperar que surjam mais protocolos de IA voltados para as empresas, possibilitando evitar qualquer violação aos direitos humanos e das liberdades civis.
Multiplique o poder da inteligência artificial em sua empresa com a IA de última geração e uma plataforma de dados da IBM
Saiba mais sobre como colocar em prática os princípios de ética na IA.
Enquanto são desenvolvidos regras e protocolos para gerenciar o uso da IA, a comunidade acadêmica têm usado o Relatório Belmont (PDF) como um meio de orientar os princípios éticos dentro da pesquisa experimental e desenvolvimento de algoritmos. Existem três princípios importantes extraídos do Relatório Belmont que podem ajudar em experimentos e na criação de algoritmos; são eles:
IBM AI Ethics
Há diversos problemas que estão presentes nas discussões sobre ética relacionadas às tecnologias de IA. Alguns destes incluem:
Embora este tópico atraia muita atenção do público, muitos pesquisadores não estão preocupados com a ideia de a IA ultrapassar a inteligência humana em um futuro próximo ou imediato. Isso também é conhecido como superinteligência, que Nick Bostrum define como "qualquer intelecto que supera amplamente os melhores pensadores humanos em praticamente todas as áreas, incluindo criatividade científica, sabedoria geral e habilidades sociais". Apesar do fato de que a IA forte e a superinteligência não são iminentes na sociedade, a ideia de sua existência levanta algumas questões interessantes quando consideramos o uso de sistemas autônomos, como carros autônomos. Não é realista pensar que um carro sem motorista nunca sofreria um acidente de carro, mas quem seria o responsável legal nessas circunstâncias? Devemos ainda buscar veículos autônomos ou limitar a integração dessa tecnologia para criar apenas veículos semiautônomos que promovam a segurança entre os motoristas? Essa decisão ainda está aberta, mas esses são os tipos de debates éticos que estão ocorrendo à medida que novas e inovadoras tecnologias de IA são desenvolvidas.
Embora grande parte da percepção pública em torno da inteligência artificial gire em torno da perda de empregos, essa preocupação deveria reanalisada. A cada nova tecnologia disruptiva, vemos que a demanda do mercado por vagas de trabalho específicas também muda. Por exemplo, quando olhamos para o mercado automotivo, muitos fabricantes, como a GM, estão mudando para se concentrar na produção de veículos elétricos para se alinhar às iniciativas verdes. O mercado de energia não irá acabar, mas a fonte de energia está mudando de uma economia de combustíveis para energia elétrica. A inteligência artificial deve ser vista de maneira semelhante, onde a inteligência artificial mudará a demanda de tarefas para outras áreas. Serão necessários indivíduos para gerenciar esses sistemas à medida que os dados aumentam e mudam todos os dias. Ainda haverá necessidade de recursos para resolver problemas mais complexos dentro dos setores de mercado que são mais prováveis de serem afetados por mudanças na demanda de tarefas, como atendimento ao cliente. O aspecto importante da inteligência artificial e seu efeito no mercado de trabalho ajudará os indivíduos na transição para essas novas áreas de demanda do mercado.
Privacidade tende a ser discutida no contexto de privacidade de dados, proteção de dados e segurança de dados, e essas preocupações permitiram que os legisladores fizessem mais avanços aqui nos últimos anos. Por exemplo, em 2016, a legislação GDPR foi criada para proteger os dados pessoais de pessoas na European Union and European Economic Area, dando aos indivíduos mais controle sobre seus dados. Nos Estados Unidos, alguns estados estão desenvolvendo políticas, como o California Consumer Privacy Act (CCPA), que exige que as empresas informem os consumidores sobre a coleta de seus dados. Essa legislação recente forçou as empresas a repensar como armazenam e usam dados de identificação pessoal (PII). Como resultado, os investimentos em segurança se tornaram uma prioridade cada vez maior para as empresas, à medida que buscam eliminar quaisquer vulnerabilidades e oportunidades de inspeção, hacking e ataques cibernéticos.
Casos de viés e discriminação em vários sistemas inteligentes levantaram muitas questões éticas relacionadas ao uso da inteligência artificial. Como podemos nos proteger contra viés e discriminação quando os próprios dados de treinamento podem levar ao preconceito? Embora as empresas normalmente sejam bem-intencionadas em relação aos seus esforços de automação, a Reuters destaca algumas das consequências não previstas da implementação da IA nas práticas de contratação. Em seu esforço para automatizar e simplificar um processo, a Amazon, involuntariamente tendenciou candidatos a emprego em potencial por gênero para cargos técnicos abertos e, no final das contas, tiveram que descartar o projeto. À medida que surgem eventos como esses, a Harvard Business Review levantou outras questões pontuais sobre o uso de IA nas práticas de contratação, como quais dados devem ser usados para avaliar um candidato para um cargo.
O viés e a discriminação também não se limitam à função de recursos humanos. Isto pode ser observado em diversas tecnologias, desde software de reconhecimento facial a algoritmos de mídia social.
À medida que as empresas se tornam mais conscientes dos riscos da IA, elas também se tornam mais ativas nessa discussão em torno da ética e dos valores da IA. Por exemplo, no ano passado, o CEO da IBM, Arvind Krishna, afirmou que a IBM encerrou a comercialização dos produtos IBM de reconhecimento e análise facial para o público, enfatizando que "a IBM se opõe firmemente e não tolerará o uso de qualquer tecnologia, incluindo tecnologia de reconhecimento facial oferecida por outros fornecedores, para inspeção em massa, discriminação racial, violações de direitos humanos básicos e de liberdades ou qualquer propósito que não seja consistente com nossos valores e Princípios de confiança e transparência".
Uma vez que não há legislação relevante para regular as práticas de IA, não existe um mecanismo real de cumprimento para garantir a prática de IA ética. Os incentivos atuais para que as empresas sigam essas diretrizes são as repercussões negativas de um sistema de IA antiético nos resultados financeiros. Para preencher esse espaço, surgiram estruturas éticas como parte de uma colaboração entre especialistas em ética e pesquisadores para controlar o desenvolvimento e distribuição de modelos de IA na sociedade. No entanto, no momento, eles servem apenas para orientar, e a pesquisa (PDF) mostra que a combinação de responsabilidade compartilhada e a falta de determinação de possíveis consequências não resulta necessariamente na prevenção de danos à sociedade.
Como a inteligência artificial não cria máquinas com discernimento moral, as equipes passaram a criar frameworks e conceitos para lidar com algumas das preocupações éticas atuais e moldar o futuro do trabalho nessa área. Enquanto essas diretrizes ainda estão sendo estruturadas, há algum consenso em torno da inclusão dos seguintes conceitos:
Alcançar a IA ética pode, sem dúvida, ser essencial para o seu sucesso. No entanto, é importante notar que ela tem um enorme potencial para trazer impactos positivos para a sociedade. Podemos observar isso a partir de sua integração em áreas do setor médico, como a radiologia. Esta discussão sobre a ética na IA tem o propósito de assegurar que em nossa tentativa de aproveitar esta tecnologia para o bem, ela seja adequadamente avaliada caso haja a possibilidade de causar algum dano.
Como as normas éticas não são a principal preocupação dos engenheiros e dos cientistas de dados no setor privado, diversas organizações decidiram promover a consulta ética na área da inteligência artificial. Para aqueles que desejam obter mais informações, as seguintes organizações e projetos oferecem materiais sobre como implementar uma IA mais ética:
A IBM também definiu seu próprio ponto de vista sobre a ética da IA, criando princípios de confiança e transparência a fim de ajudar os clientes a entender seus valores diante da discussão associada à IA. A IBM tem três princípios essenciais que determinam sua abordagem para dados e IA, que são:
A IBM também desenvolveu diversas áreas de foco para orientar a adoção responsável de tecnologias de IA. São elas:
Esses princípios e áreas de foco formam a base de nossa abordagem à ética da IA. Para saber mais sobre a opinião da IBM sobre ética e inteligência artificial, acesse mais informações aqui.
A IBM busca assegurar que seus produtos sejam desenvolvidos e usados com base em princípios e diretrizes éticas. Um dos produtos que a IBM oferece a seus clientes é o IBM Watson Studio, que melhora a supervisão e o conformidade com os padrões éticos para a IA.
O
IBM Watson Studio no IBM Cloud Pak for Data ajuda a monitorar e a gerenciar os modelos para conduzir uma IA mais confiável. Uma organização pode visualizar e rastrear modelos de IA na produção, validar e testar modelos a fim de reduzir os riscos regulatórios e aumentar a visibilidade do ciclo de vida da IA. Inscreva-se para obter um IBMid e crie sua conta IBM Cloud sem custo hoje mesmo.
Para saber mais sobre o ponto de vista da IBM sobre a ética da inteligência artificial, acesse mais informações aqui.
A abordagem multidisciplinar e multidimensional da IBM para a IA confiável
Construa fluxos de trabalho de IA responsáveis, transparentes e explicáveis.