Início
topics
IA responsável
Publicado em: 6 de fevereiro de 2024
Colaborador: Cole Stryker
A inteligência artificial (IA) responsável é um conjunto de princípios que ajudam a orientar o projeto, o desenvolvimento, a implementação e o uso da IA, criando confiança em soluções de IA que têm o potencial de capacitar as organizações e seus stakeholders. A IA responsável envolve a consideração de um impacto social mais amplo dos sistemas de IA e as medidas necessárias para alinhar essas tecnologias com os valores dos stakeholders, padrões legais e princípios éticos. A IA responsável tem como objetivo incorporar esses princípios éticos nas aplicações de IA e nos fluxos de trabalho para mitigar os riscos e resultados negativos associados ao uso da IA, ao mesmo tempo em que maximiza os resultados positivos.
Este artigo tem como objetivo fornecer uma visão geral da IA responsável. Para saber mais sobre o ponto de vista específico da IBM, consulte nossa página de ética em IA.
A adoção generalizada do aprendizado de máquina na década de 2010, impulsionada por avanços em big data e poder de computação, trouxe novos desafios éticos, como viés, transparência e uso de dados pessoais. A ética da IA surgiu como uma disciplina distinta durante esse período, quando empresas de tecnologia e instituições de pesquisa em IA buscaram gerenciar proativamente seus esforços em IA de forma responsável.
De acordo com a pesquisa da Accenture: “Apenas 35% dos consumidores globais confiam em como a tecnologia de IA está sendo implementada pelas organizações. E 77% acham que as organizações devem ser responsabilizadas pelo uso indevido da IA.”1 Nesse ambiente, os desenvolvedores de IA são incentivados a orientar seus esforços com uma framework ética de IA forte e consistente.
Isso se aplica especialmente aos novos tipos de IA generativa que agora estão sendo rapidamente adotados pelas empresas. Os princípios de IA responsável podem ajudar os adotantes a aproveitar todo o potencial dessas ferramentas e, ao mesmo tempo, minimizar os resultados indesejados.
A IA deve ser confiável e, para que os stakeholders confiem na IA, ela deve ser transparente. As empresas de tecnologia devem ser claras sobre quem treina seus sistemas de IA, quais dados foram usados nesse treinamento e, o mais importante, o que foi incluído nas recomendações do algoritmo. Se quisermos usar a IA para ajudar a tomar decisões importantes, ela deve ser explicável.
Acelere fluxos de trabalho de IA responsáveis, transparentes e explicáveis.
A IBM desenvolveu uma framework para tornar esses princípios claros. Vamos ver as propriedades que compõem os "Pilares da Confiança". Em conjunto, essas propriedades respondem à pergunta: "O que seria necessário para confiar na produção de um modelo de IA?" A IA confiável é um imperativo estratégico e ético da IBM, mas esses pilares podem ser usados por qualquer empresa para orientar seus esforços em IA.
Modelos de aprendizado de máquina, como redes neurais, estão alcançando uma precisão impressionante em várias tarefas. Mas a explicabilidade e a interpretabilidade são cada vez mais essenciais para o desenvolvimento de uma IA confiável. Três princípios abrangem a abordagem da IBM em relação à explicabilidade.
A precisão é um componente-chave do sucesso do uso da IA nas operações cotidianas. Ao executar simulações e comparar a produção da IA com os resultados no conjunto de dados de treinamento, a precisão da previsão pode ser determinada. A técnica mais popular usada para isso é de Local Interpretable Model-Agnostic Explanations (LIME), que explicam a previsão dos classificadores pelo algoritmo de aprendizado de máquina.
Rastreabilidade é uma propriedade da IA que significa se ela permite ou não que os usuários rastreiem suas previsões e processos. Envolve a documentação de dados e como eles são processados pelos modelos. A rastreabilidade é outra técnica-chave para alcançar a explicabilidade e é realizada, por exemplo, limitando a maneira como as decisões podem ser tomadas e estabelecendo um escopo mais restrito para regras e funcionalidades de aprendizado de máquina.
Esse é o fator humano. Os profissionais precisam ser capazes de entender como e por que a IA tira conclusões. Isso é feito por meio da educação continuada.
Modelos de aprendizado de máquina são cada vez mais usados para informar tomadas de decisões de alto risco relacionadas às pessoas. Embora o aprendizado de máquina, por sua própria natureza, seja uma forma de discriminação estatística, a discriminação se torna questionável quando coloca grupos privilegiados em vantagem sistemática e certos grupos desprivilegiados em desvantagem sistemática, podendo causar danos variados. Vieses em dados de treinamento, devido a preconceitos em rótulos ou subamostragem/superamostragem, produzem modelos com viés indesejado.
Dados diversificados e representativos
Certifique-se de que os dados de treinamento usados para criar modelos de IA sejam diversificados e representativos da população a que se destinam. Inclua inputs de dados de vários grupos demográficos para evitar sub-representação ou viés. Verifique e avalie regularmente os dados de treinamento em busca de vieses. Use ferramentas e métodos para identificar e corrigir vieses no conjunto de dados antes de treinar o modelo.
Algoritmos com reconhecimento de viés
Incorpore métricas de imparcialidade no processo de desenvolvimento para avaliar como os diferentes subgrupos são afetados pelas previsões do modelo. Monitore e minimize as disparidades nos resultados entre vários grupos demográficos. Aplique restrições no algoritmo para garantir que o modelo siga os critérios de imparcialidade predefinidos durante o treinamento e a implementação.
Técnicas de mitigação de vieses
Aplique técnicas como reamostragem, reponderação e treinamento adversário para mitigar vieses nas previsões do modelo.
Equipes de desenvolvimento diversificadas
Reúna equipes interdisciplinares e diversificadas envolvidas no desenvolvimento da IA. Equipes diversificadas podem trazer perspectivas diferentes, ajudando a identificar e corrigir vieses que podem ser ignorados por equipes homogêneas.
Conselhos de avaliação de IA ética
Estabelecer conselhos ou comitês de avaliação para analisar os possíveis vieses e as implicações éticas dos projetos de IA. Esses conselhos podem fornecer orientação sobre considerações éticas durante todo o ciclo de vida do desenvolvimento.
A IA robusta lida com condições excepcionais, como anormalidades em inputs ou ataques maliciosos, sem causar danos não intencionais. Ela também foi desenvolvida para resistir a interferências intencionais e não intencionais, protegendo contra vulnerabilidades expostas. Nossa crescente dependência desses modelos e o valor que eles representam como acúmulo de conhecimento confidencial e proprietário aumentam o risco de ataques. Esses modelos apresentam riscos de segurança exclusivos que devem ser contabilizados e mitigados.
Os usuários devem ser capazes de ver como o serviço funciona, avaliar sua funcionalidade e compreender seus pontos fortes e limitações. O aumento da transparência fornece informações para que os consumidores de IA entendam melhor como o modelo ou serviço de IA foi criado. Isso ajuda o usuário do modelo a determinar se ele é apropriado para um determinado caso de uso ou a avaliar como uma IA produziu conclusões imprecisas ou tendenciosas.
Muitas frameworks regulatórias, incluindo o GDPR, exigem que as organizações cumpram certos princípios de privacidade ao processar informações pessoais. Um terceiro mal-intencionado com acesso a um modelo de ML treinado, mesmo sem acesso aos próprios dados de treinamento, ainda pode revelar informações pessoais confidenciais sobre as pessoas cujos dados foram usados para treinar o modelo. É crucial ser capaz de proteger modelos de IA que possam conter informações pessoais e controlar quais dados entram no modelo em primeiro lugar.
A implementação de práticas de IA responsável no nível corporativo envolve uma abordagem holística de ponta a ponta, que lida com vários estágios de desenvolvimento e implementação da IA.
Desenvolva um conjunto de princípios de IA responsável que se alinhem aos valores e metas da empresa. Considere os principais aspectos descritos acima nos "Pilares da Confiança". Esses princípios podem ser desenvolvidos e mantidos por uma equipe de ética de IA dedicada e multifuncional, com representações de diversos departamentos, incluindo especialistas em IA, especialistas em ética, especialistas jurídicos e líderes empresariais.
Realize programas de treinamento para educar funcionários, stakeholders e tomadores de decisões sobre práticas de IA responsável. Isso inclui entender possíveis vieses, considerações éticas e a importância de incorporar uma IA responsável nas operações de negócios.
Incorpore práticas de IA responsável em todo o pipeline de desenvolvimento de IA, desde a coleta de dados e treinamento de modelos até a implementação e monitoramento contínuo. Empregue técnicas para lidar com vieses e mitigá-los em sistemas de IA. Avalie regularmente os modelos quanto à imparcialidade, especialmente em relação a atributos sensíveis, como raça, gênero ou status socioeconômico. Priorize a transparência tornando os sistemas de IA explicáveis. Forneça documentação clara sobre fontes de dados, algoritmos e processos de decisões. Usuários e stakeholders devem ser capazes de entender como os sistemas de IA tomam decisões.
Estabeleça práticas e salvaguardas sólidas de governança de dados e IA para proteger a privacidade do usuário final e os dados confidenciais. Comunique claramente as políticas de uso de dados, obtenha consentimento informado e cumpra os regulamentos de proteção de dados.
Integre mecanismos de supervisão humana aos processos críticos de tomada de decisões. Defina linhas claras de responsabilidade para garantir que as partes responsáveis sejam identificadas e possam ser responsabilizadas pelos resultados dos sistemas de IA. Estabeleça o monitoramento contínuo dos sistemas de IA para identificar e tratar de preocupações éticas, vieses ou problemas que possam surgir ao longo do tempo. Audite regularmente os modelos de IA para avaliar a conformidade com as diretrizes éticas.
Promova a colaboração com organizações externas, instituições de pesquisa e grupos de código aberto que trabalham em IA responsável. Mantenha-se informado sobre os últimos desenvolvimentos em práticas e iniciativas de IA responsável e contribua com os esforços de todo o setor.
Abordagem multidisciplinar e multidimensional da IBM para uma IA confiável.
Crie fluxos de trabalho de IA responsáveis, transparentes e explicáveis.
A IBM Consulting ajuda você a integrar uma governança responsável da IA à estrutura de sua empresa.
A IBM definiu publicamente sua abordagem multidisciplinar e multidimensional à ética da IA, baseada em princípios de confiança e transparência.
Há mais de um século, a IBM vem conquistando a confiança dos nossos clientes gerenciando de forma responsável seus dados mais valiosos e trabalha para conquistar a confiança da sociedade introduzindo no mundo tecnologias novas e poderosas de forma responsável e com um propósito claro.
A Inteligência Artificial Explicável (XAI) é um conjunto de processos e métodos que permite aos usuários humanos entenderem e confiarem nos resultados e produção criados por algoritmos de aprendizado de máquina.
1 Technology Vision 2022 ( link externo a ibm.com), Accenture, 2022.