Início topics O que é o Deep Learning? O que é deep learning?
Explore solução de deep learning da IBM Receba atualizações sobre IA
ilustração que representa redes neurais em aprendizagem profunda, trabalhando para fazer previsões baseadas em dados

Atualização: 17 de junho de 2024
Colaboradores: Jim Holdsworth, Marcos Scapicchio

O que é deep learning?

O deep learning é um subconjunto do aprendizado de máquina que usa redes neurais de várias camadas, chamadas de redes neurais profundas, para simular o complexo poder de tomada de decisão do cérebro humano. Alguma forma de deep learning alimenta a maioria das aplicações de inteligência artificial (IA) em nossas vidas atualmente.

A principal diferença entre deep learning e aprendizado de máquina é a estrutura da arquitetura da rede neural subjacente. Os modelos tradicionais de aprendizado de máquina “não profundos” utilizam redes neurais simples com uma ou duas camadas computacionais. Os modelos de deep learning usam três ou mais camadas (normalmente centenas ou milhares delas) para treinar os modelos.

Enquanto os modelos de aprendizagem supervisionada exigem dados de input estruturados e rotulados para produzir resultados precisos, os modelos de deep learning podem usar aprendizagem não supervisionada. Com a aprendizagem não supervisionada, os modelos de deep learning podem extrair as características, as particularidades e os relacionamentos necessários para obter resultados precisos a partir de dados brutos e não estruturados. Além disso, esses modelos podem até mesmo avaliar e refinar seus resultados para aumentar a precisão.

O deep learning é uma vertente da ciência de dados que conduz muitas aplicações e serviços que melhoram a automação, realizando tarefas analíticas e físicas sem intervenção humana. Isso viabiliza muitos produtos e serviços do dia a dia, como assistentes digitais, controles remotos de TV por voz, detecção de fraudes de cartão de crédito, carros autônomos e IA generativa. 

Crie fluxos de trabalho de IA responsáveis com controle de IA

Aprenda os fundamentos e as melhores práticas para ajudar suas equipes a acelerar a IA responsável.

Conteúdo relacionado

Registre-se para receber o ebook sobre IA generativa

O que é deep learning?
Como funciona o deep learning

As redes neurais, ou redes neurais artificiais, tentam imitar o cérebro humano por meio de uma combinação de inputs de dados, pesos e vieses, todos atuando como neurônios de silício. Esses elementos trabalham juntos para reconhecer, classificar e descrever objetos nos dados com precisão.

As redes neurais profundas consistem em várias camadas de nós interconectados, cada uma delas baseada na camada anterior para refinar e otimizar a previsão ou a categorização. Essa progressão de cálculos pela rede é chamada de propagação direta. As camadas de input e saída de uma rede neural profunda são chamadas de camadas visíveis . A camada de input é onde o modelo de deep learning ingere os dados para processamento. Já a camada de saída é onde a previsão ou classificação final é realizada.

Outro processo chamado de retropropagação (ou propagação reversa) utiliza algoritmos, como gradiente descendente, para calcular erros em previsões e, em seguida, ajusta os pesos e vieses da função retrocedendo nas camadas para treinar o modelo. Juntas, a propagação direta e a retropropagação permitem que uma rede neural faça previsões e corrija quaisquer erros. Com o tempo, o algoritmo se torna gradualmente mais preciso.

O deep learning exige um enorme poder computacional. As unidades de processamento gráficas (GPUs) de alto desempenho são ideais, pois podem lidar com um grande volume de cálculos em vários núcleos com memória abundante disponível. A computação em nuvem distribuída também pode ajudar. Esse nível de poder computacional é necessário para treinar algoritmos profundos por meio de deep learning. No entanto, gerenciar várias GPUs no local pode criar uma grande demanda de recursos internos e ser incrivelmente caro de se escalar. Quanto aos requisitos de software, a maioria das aplicações de deep learning é codificada com um destes três frameworks de aprendizado: JAX, PyTorch ou TensorFlow.

 

Tipos de modelos de deep learning

Os algoritmos de deep learning são incrivelmente complexos, de modo que existem tipos diferentes de redes neurais para lidar com problemas ou conjuntos de dados específicos. Aqui estão seis. Cada um tem suas próprias vantagens e são apresentados aqui, em termos gerais, na ordem de seu desenvolvimento, com cada modelo sucessivo se ajustando para superar um ponto fraco de um modelo anterior.

Um possível ponto fraco de todos eles é que os modelos de deep learning costumam ser “caixas-pretas”, o que dificulta a compreensão de seu funcionamento interno e cria desafios de interpretação. Mas isso pode ser equilibrado com os benefícios gerais de alta precisão e escalabilidade.

CNNs

As redes neurais convolucionais (CNNs ou ConvNets) são usadas sobretudo em aplicações de computer vision e classificação de imagens. Elas detectam características e padrões em imagens e vídeos, permitindo tarefas como detecção de objetos, reconhecimento de imagens, reconhecimento de padrões e reconhecimento facial. Essas redes utilizam princípios da álgebra linear, especialmente a multiplicação de matrizes, para identificar padrões dentro de uma imagem.

As CNNs são um tipo específico de rede neural, que é composto por camadas de nós contendo uma camada de entrada, uma ou mais camadas ocultas e uma camada de saída. Cada nó conecta-se a outro e tem peso e um limite associados. Se a saída de qualquer nó individual estiver acima do valor de limite especificado, esse nó será ativado, enviando dados para a próxima camada da rede. Caso contrário, nenhum dado será passado para a próxima camada da rede.

Pelo menos três tipos principais de camadas compõem uma CNN: uma camada convolucional, uma de agrupamento e outra totalmente conectada (FC). Para usos complexos, uma CNN pode conter até milhares de camadas, sendo que cada uma se baseia nas camadas anteriores. Por meio da “convolução” (ao trabalhar e retrabalhar a entrada original), é possível descobrir padrões detalhados. Com cada camada, a CNN aumenta em sua complexidade, identificando partes maiores da imagem. As camadas anteriores se concentram em características simples, como cores e extremidades. À medida que os dados da imagem progridem por meio das camadas da CNN, ela começa a reconhecer elementos ou formas maiores do objeto até que finalmente identifica o objeto pretendido.

As CNNs se distinguem de outras redes neurais por seu desempenho superior com entradas de sinal de imagem, fala ou áudio. Antes das CNNs, métodos manuais e demorados de extração de características eram usados para identificar objetos em imagens. Contudo, as CNNs agora oferecem uma abordagem mais escalável para tarefas de classificação de imagens e reconhecimento de objetos, além de processarem dados de altas dimensões. E as CNNs podem trocar dados entre camadas, para fornecer um processamento de dados mais eficiente. Embora certas informações possam ser perdidas na camada de agrupamento, isso pode ser compensado pelos benefícios das CNNs, que ajudam a reduzir a complexidade, melhorar a eficiência e limitar o risco de superajuste. 

Há outras desvantagens nas CNNs, que são exigentes em termos computacionais e demandam tempo e orçamento, exigindo muitas unidades de processamento gráfico (GPUs). Elas também exigem especialistas altamente treinados com conhecimento de vários domínios e testes cuidadosos de configurações, hiperparâmetros e configurações.

RNNs

As redes neurais recorrentes (RNNs) normalmente são usadas em aplicações de linguagem natural e reconhecimento de fala, pois usam dados sequenciais ou de séries temporais. As RNNs podem ser identificadas pelos seus loops de feedback. Esses algoritmos de aprendizagem são usados sobretudo com dados de séries temporais, para fazer previsões sobre resultados futuros. Os casos de uso incluem previsões de mercado de ações ou previsão de vendas, ou problemas ordinais ou temporais, como tradução de idiomas, processamento de linguagem natural (NLP), reconhecimento de fala e legendas de imagens. Essas funções costumam estar incorporadas a aplicações populares, como Siri, pesquisa por voz e Google Tradutor.

As RNNs usam sua “memória” à medida que coletam informações de inputs anteriores para influenciar a entrada e a saída atuais. Enquanto as redes neurais profundas tradicionais presumem que as inputs e saídas são independentes umas das outras, a saída das RNNs depende dos elementos anteriores da sequência. Embora eventos futuros também sejam úteis para determinar a saída de uma determinada sequência, as redes neurais recorrentes unidirecionais não podem levar em conta esses eventos em suas previsões.

As RNNs compartilham parâmetros entre cada camada da rede e usam os mesmos parâmetros de peso em cada camada. Os pesos são ajustados por meio dos processos de retropropagação e gradiente descendente para promover o aprendizado por reforço.

As RNNs usam um algoritmo de retropropagação ao longo do tempo (BPTT) para determinar os gradientes, o que difere um pouco da retropropagação tradicional, pois é específico para dados de sequência. Os princípios da BPTT são os mesmos da retropropagação tradicional, em que o modelo treina a si mesmo calculando erros da camada de saída para a camada de input. A BPTT difere da abordagem tradicional porque soma erros em cada intervalo de tempo, enquanto as redes feedforward não precisam somar erros, pois não compartilham parâmetros em cada camada.

Uma vantagem sobre outros tipos de rede neural é que as RNNs usam tanto o processamento de dados binários quanto a memória. As RNNs podem planejar vários inputs e saídas para que, em vez de fornecer apenas um resultado para uma único input, as RMMs possam produzir saídas de um para muitos, de muitos para um ou de muitos para muitos.

Há também opções dentro das RNNs. Por exemplo, a rede de memória de curto prazo (LSTM) é superior às RNNs simples, aprendendo e agindo em dependências de longo prazo.

No entanto, as RNNs tendem a se deparar com dois problemas básicos, conhecidos como gradientes de explosão e gradientes de desaparecimento. Esses problemas são definidos pelo tamanho do gradiente, que é a inclinação da função de perda ao longo da curva de erro.

  • Quando o gradiente está desaparecendo e é muito pequeno, ele continua diminuindo, atualizando os parâmetros de peso até que eles se tornem insignificantes, ou seja: zero (0). Quando isso ocorre, o algoritmo não está mais aprendendo.
  • Gradientes de explosão ocorrem quando o gradiente é muito grande, criando um modelo instável. Nesse caso, os pesos do modelo ficam muito grandes e, por fim, serão representados como NaN (não como um número). Uma solução para esses problemas é reduzir o número de camadas ocultas na rede neural, eliminando parte da complexidade dos modelos de RNN.

Algumas desvantagens finais: as RNNs também podem exigir um longo tempo de treinamento e serem difíceis de usar em grandes conjuntos de dados. A otimização de RNNs adiciona complexidade quando elas têm muitas camadas e parâmetros.

Autoencoders e autoencoders variacionais

O deep learning possibilitou ir além da análise dos dados numéricos, adicionando a análise de imagens, fala e outros tipos de dados complexos. Entre modelos da primeira classe a alcançar esse feito estavam os autoencoders variacionais (VAEs). Eles foram os primeiros modelos de deep learning a serem amplamente utilizados para gerar imagens e fala realistas, o que fortaleceu a modelagem generativa profunda, tornando os modelos mais fáceis de escalar, que é a base do que chamamos de IA generativa.

Os autoencoders funcionam codificando dados não rotulados em uma representação compactada e, em seguida, decodificando os dados de volta à sua forma original. Os autoencoders simples foram usados para diversas finalidades, incluindo a reconstrução de imagens corrompidas ou borradas. Os autoencoders variacionais acrescentaram a capacidade crítica não só de reconstruir dados, mas também de gerar variações nos dados originais.

Essa capacidade de gerar novos dados desencadeou uma rápida sucessão de novas tecnologias, desde redes adversárias generativas (GANs) até modelos de difusão, capazes de produzir imagens cada vez mais realistas, porém falsas. Dessa forma, os VAEs preparam o terreno para a IA generativa de hoje.

Os autoencoders são construídos a partir de blocos de codificadores e decodificadores, uma arquitetura que também sustenta os grandes modelos de linguagem atuais. Os codificadores comprimem um conjunto de dados em uma representação densa, organizando pontos de dados semelhantes mais próximos em um espaço abstrato. Os decodificadores coletam amostras desse espaço para criar algo novo, preservando as características mais importantes do conjunto de dados.

A maior vantagem dos autoencoders é a capacidade de lidar com grandes lotes de dados e mostrar os dados de input em um formato compactado, de modo que os aspectos mais significativos se destaquem, permitindo tarefas de detecção e classificação de anomalias. Isso também acelera a transmissão e reduz os requisitos de armazenamento. Os autoencoders podem ser treinados em dados não rotulados. Portanto, podem ser usados quando não há dados rotulados disponíveis. Quando o treinamento não supervisionado é usado, há uma vantagem de economia de tempo: os algoritmos de deep learning aprendem automaticamente e ganham precisão sem a necessidade de engenharia manual de recursos. Além disso, os VAEs podem gerar novos dados de amostra para geração de texto ou imagem.

Existem desvantagens nos autoencoders. O treinamento de estruturas profundas ou complexas pode consumir muitos recursos computacionais. E durante o treinamento não supervisionado, o modelo pode ignorar as propriedades necessárias e, em vez disso, simplesmente replicar os dados de input. Os autoencoders também podem ignorar vínculos de dados complexos em dados estruturados, de modo que não identifiquem corretamente relacionamentos complexos.

GANs

As redes adversárias generativas (GANs) são redes neurais usadas dentro e fora da inteligência artificial (IA) para criar novos dados semelhantes aos dados de treinamento originais. Elas podem incluir imagens que parecem ser rostos humanos, mas são geradas, não tiradas de pessoas reais. O termo “adversárias” presente no nome é oriundo do vaivém entre as duas partes do GAN: um gerador e um discriminador.

  • O gerador cria algo: imagens, vídeo ou áudio e, em seguida, produz uma saída com um toque diferente. Por exemplo, um cavalo pode ser transformado em zebra com algum grau de precisão. O resultado depende do input e do quão bem treinadas as camadas estão no modelo generativo para esse caso de uso.
  • O discriminador é o adversário, onde o resultado gerado (imagem falsa) é comparado com as imagens reais no conjunto de dados. O discriminador tenta distinguir entre as imagens, vídeos ou áudios reais e falsos.

Os GANs treinam sozinhos. O gerador cria exemplares falsos enquanto o discriminador aprende a identificar as diferenças entre os exemplares falsos do gerador e os verdadeiros. Quando o discriminador é capaz de identificar o exemplar falso, o gerador é penalizado. O loop de feedback continua até que o gerador consiga produzir uma saída que o discriminador não consiga distinguir.

O principal benefício do GAN é criar resultados realistas que sejam difíceis de distinguir dos originais, que por sua vez podem ser usados para treinar ainda mais os modelos de aprendizado de máquina. Configurar um GAN para aprender é simples, já que eles são treinados usando dados não rotulados ou com pouca rotulagem. No entanto, a possível desvantagem é que o gerador e o discriminador podem ficar competindo entre si por bastante tempo, criando um grande consumo do sistema. Uma limitação do treinamento é que pode ser necessária uma enorme quantidade de dados de input para obter uma saída satisfatória. Outro possível problema é o “colapso modal”, quando o gerador produz um conjunto limitado de saídas em vez de uma variedade mais ampla.

Modelos de difusão

Os modelos de difusão são modelos generativos treinados com o processo de difusão direta e reversa de adição progressiva de ruído e redução de ruído. Os modelos de difusão geram dados (na maioria das vezes imagens) semelhantes aos dados nos quais são treinados, mas substituem os dados usados para treiná-los. Eles acrescentam ruído gaussiano gradualmente aos dados de treinamento até que se tornem irreconhecíveis. Em seguida, aprendem um processo de “redução de ruído” invertido que pode sintetizar a saída (geralmente imagens) a partir do input de ruído aleatório.

Um modelo de difusão aprende a minimizar as diferenças das amostras geradas em relação ao alvo desejado. Qualquer discrepância é quantificada e os parâmetros do modelo são atualizados para minimizar a perda, treinando o modelo para produzir amostras muito semelhantes aos dados de treinamento autênticos.

Além da qualidade da imagem, os modelos de difusão têm a vantagem de não exigir treinamento contraditório, o que acelera o processo de aprendizagem e também oferece um controle rigoroso do processo. O treinamento é mais estável do que com os GANs, e os modelos de difusão não são tão propensos ao colapso modal.

Porém, em comparação com os GANs, os modelos de difusão podem exigir mais recursos de computação para o treinamento, incluindo mais ajustes. A IBM® Research também descobriu que essa forma de IA generativa pode ser sequestrada com backdoors ocultos, dando aos invasores controle sobre o processo de criação de imagens para que os modelos de difusão de IA possam ser induzidos a gerar imagens manipuladas.

modelos de transformador

Os modelos transformadores combinam uma arquitetura de codificador-decodificador com um mecanismo de processamento de texto e revolucionaram a forma como os modelos de linguagem são treinados. Um codificador converte texto bruto e não anotado em representações conhecidas como incorporações; o decodificador toma essas incorporações junto com as produções anteriores do modelo e prevê sucessivamente cada palavra em uma frase.

Usando suposição de preenchimento de espaços em branco, o codificador aprende como palavras e frases se relacionam entre si, construindo uma representação avançada da linguagem sem ter que rotular partes do discurso e outras características gramaticais. Na verdade, os transformadores podem ser pré-treinados desde o início sem uma tarefa específica em mente. Depois que essas representações avançadas são aprendidas, os modelos podem ser especializados posteriormente, com muito menos dados, para executar uma tarefa solicitada.

Várias inovações tornam isso possível. Os transformadores processam palavras em uma frase simultaneamente, permitindo o processamento de texto em paralelo, acelerando o treinamento. As técnicas anteriores, incluindo as redes neurais recorrentes (RNNs), processavam as palavras uma a uma. Os transformadores também aprenderam as posições das palavras e suas relações. Esse contexto permite que eles deduzam o significado e eliminem a ambiguidade de palavras como “isso” em frases longas.

Ao eliminar a necessidade de definir uma tarefa antecipadamente, os transformadores tornaram prático o pré-treinamento de modelos de linguagem em grandes quantidades de texto bruto, permitindo que eles crescessem drasticamente em tamanho. Antes, os dados rotulados eram coletados para treinar um modelo em uma tarefa específica. Com os transformadores, um modelo treinado em uma grande quantidade de dados pode ser adaptado a várias tarefas ajustando-o em uma pequena quantidade de dados rotulados específicos da tarefa.

Atualmente, os transformadores de linguagem são usados para tarefas não generativas, como classificação e extração de entidades, bem como tarefas generativas, inclusive tradução automática, sumarização e resposta a perguntas. Os transformadores surpreenderam muita gente com sua capacidade de gerar diálogos, ensaios e outros conteúdos convincentes.

Os transformadores de processamento de linguagem natural (NLP) têm um poder notável, pois podem ser executados em paralelo, processando várias partes de uma sequência simultaneamente, o que acelera muito o treinamento. Os transformadores também rastreiam dependências de longo prazo no texto, o que lhes permite entender o contexto geral com mais clareza e criar resultados superiores. Além disso, os transformadores são mais escaláveis e flexíveis para serem personalizados por tarefa.

Quanto às limitações, devido à sua complexidade, os transformadores exigem enormes recursos computacionais e um longo tempo de treinamento. Além disso, os dados de treinamento devem ser relevantes, imparciais e abundantes para produzirem resultados precisos.

Casos de uso de deep learning

O número de usos do deep learning cresce a cada dia. Aqui estão apenas algumas das maneiras pelas quais ele está ajudando as empresas a se tornarem mais eficientes e atenderem melhor seus clientes.

Modernização de aplicativos

A IA generativa pode aprimorar os recursos dos desenvolvedores e reduzir a lacuna cada vez maior de habilidades nos domínios da modernização de aplicações e automação de TI. A IA generativa para codificação é possível graças aos recentes avanços nas tecnologias de grandes modelos de linguagem (LLM) e no processamento de linguagem natural (PLN). Ela usa algoritmos de deep learning e grandes redes neurais treinadas em vastos conjuntos de dados de código-fonte existente. O código de treinamento geralmente vem de um código disponível publicamente produzido por projetos de código aberto.

Os programadores podem inserir prompts de texto simples descrevendo o que desejam que o código faça. As ferramentas de IA generativa sugerem trechos de código ou funções completas, simplificando o processo de programação ao lidar com tarefas repetitivas e reduzir a programação manual. A IA generativa também pode traduzir códigos de uma linguagem para outra, agilizando a conversão de códigos ou projetos de modernização, como a atualização de aplicações legadas por meio da tradução de COBOL para Java.

Visão computacional

Computer vision é uma área da inteligência artificial (IA) que inclui classificação de imagens, detecção de objetos e segmentação semântica. Utiliza aprendizado de máquina e redes neurais para ensinar computadores e sistemas de aprendizado a obter informações significativas de imagens digitais, vídeos e outros inputs visuais, além de fazer recomendações ou agir quando o sistema identifica defeitos ou problemas. Se a IA permite que os computadores pensem, a computer vision permite que eles vejam, observem e entendam.

Como um sistema de computer vision geralmente é treinado para inspecionar produtos ou observar ativos de produção, ele geralmente pode analisar milhares de produtos ou processos por minuto, percebendo defeitos ou problemas imperceptíveis. A computer vision é usada em setores que vão desde energia e serviços públicos até manufatura e automotivo.

A computer vision precisa de muitos dados para que possa realizar análises repetidamente até discernir e, por fim, reconhecer as imagens. Por exemplo, para treinar um computador para reconhecer pneus de automóveis, ele precisa ser alimentado com grandes quantidades de imagens de pneus e itens relacionados a pneus para aprender as diferenças e reconhecer um pneu, especialmente um que não tenha defeitos.

A computer vision utiliza modelos algorítmicos para permitir que um computador aprenda sozinho sobre o contexto dos dados visuais. Se o modelo for alimentado com dados suficientes, o computador “olhará” os dados e aprenderá a distinguir uma imagem da outra. Os algoritmos permitem que a máquina aprenda por si mesma, em vez de alguém programá-la para reconhecer uma imagem.

A computer vision permite que os sistemas obtenham informações significativas de imagens digitais, vídeos e outros inputs visuais e, com base nessas inputs, entrem em ação. Essa capacidade de fornecer recomendações a distingue das tarefas simples de reconhecimento de imagem. Algumas aplicações comuns da computer vision hoje podem ser vistas em:

  • Automotivo: embora a era dos carros sem motorista ainda não tenha chegado, a tecnologia subjacente começou a chegar aos automóveis, melhorando a segurança do motorista e dos passageiros por meio de recursos como a detecção de linha de divisão de faixas.

  • Saúde: a computer vision foi incorporada às tecnologias radiológicas, permitindo que os médicos identifiquem melhor tumores cancerosos em anatomia saudável.

  • Marketing: as plataformas de redes sociais oferecem sugestões sobre quem pode estar em uma foto que foi postada em um perfil, facilitando a marcação de amigos em álbuns de fotos.

  • Varejo: a pesquisa visual foi incorporada a algumas plataformas de e-commerce, permitindo que as marcas recomendem itens que complementem um guarda-roupa existente.
Atendimento ao cliente

A IA está ajudando as empresas a entender melhor e atender às crescentes demandas dos consumidores. Com o aumento das compras online altamente personalizadas, dos modelos diretos ao consumidor e dos serviços de entrega, a IA generativa ajuda a liberar ainda mais uma série de benefícios para melhorar o atendimento ao cliente, a transformação de talentos e o desempenho das aplicações.

A IA permite que as empresas adotem uma abordagem centrada no cliente, aproveitando insights valiosos do feedback e dos hábitos de compra dos clientes. Essa abordagem baseada em dados ajuda a melhorar o design e a embalagem dos produtos, além de poder aumentar a satisfação do cliente e as vendas.

A IA generativa também serve como assistente cognitivo para atendimento ao cliente, fornecendo orientação contextual com base no histórico de conversas, na análise de opiniões e nas transcrições da central de atendimento. Além disso, a IA generativa permite experiências de compra personalizadas, promover a fidelidade do cliente e oferecer uma vantagem competitiva.

Mão de obra digital

As organizações podem aumentar sua força de trabalho criando e implementando automação robótica de processos (RPA) e mão de obra digital para colaborar com humanos de modo a aumentar a produtividade ou ajudar sempre que for necessário. Por exemplo, isso ajuda os desenvolvedores a acelerar a atualização de software legado.

A mão de obra digital utiliza modelos básicos para automatizar e melhorar a produtividade dos trabalhadores do conhecimento, permitindo a automação do autoatendimento de maneira rápida e confiável, sem barreiras técnicas. Para automatizar o desempenho de tarefas ou chamar APIs, um modelo de preenchimento de slot baseado em LLM de nível empresarial pode identificar informações em uma conversa e reunir todas as informações necessárias para realizar uma ação ou chamar uma API sem muito esforço manual.

Em vez de ter especialistas técnicos registrando e codificando fluxos de ação repetitivos de profissionais da área do conhecimento, automações de mão de obra digital construídas com uma base de instruções e demonstrações conversacionais baseadas em modelos podem ser usadas pelo profissional para automatizar o autoatendimento. Por exemplo, para acelerar a criação de aplicativos, os aprendizes digitais no-code podem ajudar os usuários finais, que não têm experiência em programação, ensinando, supervisionando e validando o código de forma eficaz. 

IA generativa

A IA generativa é uma categoria de IA que cria textos, imagens, vídeos, dados ou outros conteúdos de forma autônoma em resposta a um comando ou solicitação de um usuário.

A IA generativa recorre a modelos de deep learning que aprendem com padrões em conteúdos existentes e geram conteúdos novos e semelhantes com base nesse treinamento. Ela tem aplicações em muitas áreas, incluindo atendimento ao cliente, marketing, desenvolvimento de software e pesquisa, e oferece um enorme potencial para otimizar fluxos de trabalho corporativos por meio da criação e do aumento rápidos e automatizados de conteúdo. 

A IA generativa é excelente para lidar com diversas fontes de dados, como e-mails, imagens, vídeos, arquivos de áudio e conteúdo de redes sociais. Esses dados não estruturados formam a base para a criação de modelos e o treinamento contínuo da IA generativa, para que ela permaneça eficaz ao longo do tempo. O uso desses dados não estruturados pode aprimorar o atendimento ao cliente por meio de chatbots e promover o encaminhamento mais eficaz de e-mails. Na prática, isso pode significar orientar os usuários para os recursos apropriados, seja conectando-os ao agente certo ou direcionando-os aos guias do usuário e às perguntas frequentes.

Apesar das suas limitações e riscos muito discutidos, muitas empresas estão avançando, explorando cautelosamente como suas organizações podem aproveitar a IA generativa para melhorar os fluxos de trabalho internos e os produtos e serviços. Esta é a nova fronteira: como tornar o ambiente de trabalho mais eficiente sem criar problemas legais ou éticos.

IA generativa para desenvolvedores
Processamento de linguagem natural e reconhecimento de fala

O PLN combina linguística computacional (modelagem baseada nas regras da linguagem humana) com modelos estatísticos e de aprendizado de máquina para permitir que computadores e dispositivos digitais reconheçam, entendam e gerem texto e fala. O PNL viabiliza aplicações e dispositivos que podem traduzir texto de um idioma para outro, responder a comandos digitados ou falados, reconhecer ou autenticar usuários com base na voz.  Ele ajuda a resumir grandes volumes de texto, avaliar a intenção ou o sentimento do texto ou da fala e gerar textos, gráficos ou outros conteúdos sob demanda.

Um subconjunto do PNL é a PNL estatístico, que combina algoritmos de computador com modelos de aprendizado de máquina e deep learning. Essa abordagem ajuda a extrair, classificar e rotular automaticamente elementos de dados de texto e voz e, em seguida, atribuir uma probabilidade estatística a cada significado possível desses elementos. Hoje, modelos de deep learning e técnicas de aprendizagem baseadas em RNNs viabilizam sistemas de PNL que “aprendem” à medida que trabalham e extraem significado cada vez mais preciso de enormes conjuntos de dados de voz e texto brutos, não estruturados e não rotulados.

O reconhecimento de fala, também conhecido como reconhecimento automático de fala (ASR), reconhecimento de fala por computador ou speech to text, é um recurso que permite que um programa processe a fala humana em um formato escrito.

Embora o reconhecimento de fala costume ser confundido com o reconhecimento de voz, o reconhecimento de fala se concentra na tradução da fala de um formato verbal para um texto, enquanto o reconhecimento de voz busca apenas identificar a voz de um usuário específico.

Aplicações no setor

Aplicações reais de deep learning estão ao nosso redor e tão bem integradas em produtos e serviços que os usuários não têm consciência do complexo processamento de dados que ocorre em segundo plano. Veja alguns desses exemplos:

Deep learning de atendimento ao cliente

Muitas organizações incorporam tecnologia de deep learning em seus processos de atendimento ao cliente. Os chatbots são frequentemente utilizados em diversas aplicações, serviços e portais de atendimento ao cliente. Os chatbots tradicionais usam linguagem natural e até mesmo reconhecimento visual, geralmente encontrados em menus semelhantes aos de centrais de atendimento. No entanto, soluções de chatbot mais sofisticadas tentam determinar, por meio da aprendizagem, se existem várias respostas a questões ambíguas em tempo real. Com base nas respostas que recebe, o chatbot tenta responder diretamente a essas perguntas ou encaminha a conversa para um usuário humano.

Assistentes virtuais como a Siri da Apple, a Amazon Alexa ou o Google Assistente ampliam a ideia de um chatbot, permitindo a funcionalidade de reconhecimento de fala. Isso cria um novo método para interagir com os usuários de forma personalizada.

Análise de dados de serviços financeiros

As instituições financeiras usam regularmente a análise preditiva para impulsionar a negociação algorítmica de ações, avaliar os riscos comerciais para aprovações de empréstimos, detectar fraudes e ajudar a gerenciar portfólios de crédito e investimento para os clientes.

Manutenção de registros de saúde

O setor de saúde se beneficiou muito dos recursos de deep learning desde a digitalização de registros e imagens hospitalares. As aplicações de reconhecimento de imagem ajudam especialistas em imagens médicas e radiologistas a analisar e avaliar mais imagens em menos tempo.

Autoridades policiais usam deep learning

Algoritmos de deep learning podem analisar e aprender com dados transacionais para identificar padrões perigosos que indicam possíveis atividades fraudulentas ou criminosas. O reconhecimento de fala, a computer vision e outras aplicações de deep learning melhoram a eficiência e a eficácia da análise investigativa, extraindo padrões e provas de gravações de som e vídeo, imagens e documentos. Esse recurso ajuda as autoridades policiais a analisar grandes volumes de dados com mais rapidez e precisão.

Soluções relacionadas
watsonx é IA para negócios mais inteligentes

O IBM watsonx é um portfólio de ferramentas, aplicativos e soluções prontos para negócios, projetados para reduzir os custos e os obstáculos da adoção da IA, otimizando os resultados e o uso responsável da IA.

Explore o watsonx
watsonx Assistant – Chatbot de IA

O watsonx Assistant é a plataforma de IA conversacional. Esta tecnologia de inteligência artificial corporativa permite que os usuários criem soluções como chatbots e agentes de voz.

Conheça o watsonx Assistant
Recursos Aprendizagem prática e sem custo para tecnologias de IA generativa

Aprenda os conceitos fundamentais relacionados à IA e IA generativa, incluindo engenharia imediata, grandes modelos de linguagem e os melhores projetos de código aberto.

Uma introdução ao deep learning

Explore este ramo do aprendizado de máquina que é treinado com grandes quantidades de dados e lida com unidades computacionais trabalhando em conjunto para realizar previsões.

Arquiteturas de deep learning

Explore os fundamentos da arquitetura de aprendizado de máquina e deep learning e descubra as aplicações e os benefícios associados.

Compare frameworks de deep learning

Escolher o framework de deep learning certo com base em sua carga de trabalho individual é um primeiro passo essencial para o deep learning.

Dê o próximo passo

Treine, valide, ajuste e implemente IA generativa, modelos de base e recursos de aprendizado de máquina com o IBM watsonx.ai, um estúdio empresarial de próxima geração para construtores de IA. Crie aplicações de IA em menos tempo com menos dados.

Explore o watsonx.ai Agende uma demonstração em tempo real

Conheça o watsonx.ai, a plataforma de IA e dados que reúne recursos de IA generativa. Com o watsonx.ai, sua equipe poderá treinar, validar, ajustar e implementar modelos de IA em uma fração de tempo. 

Explore o watsonx.ai