Início topics Data centers O que é um data center?
Explore os data centers da IBM Inscreva-se para receber atualizações sobre a nuvem
Ilustração com colagem de pictogramas de monitor de computador, servidor, nuvens, pontos
O que é um data center?

Um data center é uma sala, prédio ou instalação física que abriga infraestrutura de TI para construir, executar e fornecer aplicações e serviços, e para armazenar e gerenciar os dados associados a essas aplicações e serviços.

Os data centers evoluíram nos últimos anos, passando de instalações locais de propriedade privada e rigorosamente controladas, que abrigam infraestrutura de TI tradicional para uso exclusivo de uma empresa, para instalações remotas ou redes de instalações de propriedade de provedores de serviços de nuvem que abrigam infraestrutura de TI virtualizada para uso compartilhado uso de várias empresas e clientes.

A modernização estratégica de aplicativos gera transformação digital

A modernização estratégica de aplicações é uma chave para o sucesso transformacional que pode aumentar a receita anual e reduzir custos de manutenção e operação.

Conteúdo relacionado

Registre-se para receber o guia sobre nuvem híbrida

Tipos de data centers

Existem diferentes tipos de instalações de data center, e uma única empresa pode usar mais de um tipo, dependendo das cargas de trabalho e da necessidade do negócio.

Data centers corporativos (locais)

Nesse modelo de data center, toda a infraestrutura e dados de TI são hospedados no local. Muitas empresas optam por ter seus próprios data centers locais porque sentem que têm mais controle sobre a segurança da informação e podem cumprir mais facilmente regulamentações como o Regulamento Geral de Proteção de Dados da União Europeia (GDPR) ou o US Health Insurance Portability and Accountability (HIPAA). Em um data center corporativo, a empresa é responsável por todas as tarefas de implementação, monitoramento e gerenciamento.

Data centers em nuvem pública

Os data centers em nuvem (também chamados de data centers de computação em nuvem) abrigam recursos de infraestrutura de TI para uso compartilhado por vários clientes, de dezenas a milhões de clientes, por meio de uma conexão com a Internet.

Muitos dos maiores data centers em nuvem - chamados de data centers em hiperescala - são administrados pelos principais provedores de serviços em nuvem, como Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud, Microsoft Azure e Oracle Cloud Infrastructure. De fato, a maioria dos principais provedores de nuvem administra vários data centers em hiperescala em todo o mundo. Normalmente, os provedores de serviços em nuvem mantêm data centers de borda menores, localizados mais perto dos clientes da nuvem (e dos clientes dos clientes da nuvem). Para cargas de trabalho em tempo real e com uso intenso de dados, como análise de big data, inteligência artificial (IA) e aplicações de fornecimento de conteúdo, os data centers edge podem ajudar a minimizar a latência, melhorando o desempenho geral do aplicativo e a experiência do cliente.

Data centers gerenciados e instalações de colocation

Os data centers gerenciados e as instalações de colocation são opções para organizações que não têm espaço, equipe ou conhecimento para implantar e gerenciar parte ou toda a infraestrutura de TI no local, mas preferem não hospedar essa infraestrutura usando os recursos compartilhados de um data center em nuvem pública.

Em um data center gerenciado, a empresa cliente aluga servidores dedicados, armazenamento e hardware de rede do provedor do data center, e o provedor do data center lida com a administração, monitoramento e gerenciamento para a empresa cliente.

Em uma instalação de colocation, a empresa cliente é proprietária de toda a infraestrutura e aluga um espaço dedicado para hospedá-la dentro da instalação. No modelo tradicional de colocation, a empresa cliente tem acesso exclusivo ao hardware e total responsabilidade pelo seu gerenciamento; isso é ideal para a privacidade e a segurança, mas muitas vezes não é prático, principalmente durante interrupções ou emergências. Atualmente, a maioria dos provedores de colocation oferece serviços de gerenciamento e monitoramento para os clientes que os desejarem.

Data centers gerenciados e instalações de colocation são frequentemente usados para hospedar tecnologia remota de backup de dados e recuperação de desastres para pequenas e médias empresas (SMBs).

Arquitetura do data center

A maioria dos data centers modernos (mesmo os data centers locais internos) evoluiu da arquitetura de TI tradicional, onde cada aplicação ou carga de trabalho é executada em seu próprio hardware dedicado, para a arquitetura de nuvem, na qual os recursos de hardware físico (CPUs, armazenamento, rede) são virtualizados. A virtualização permite que esses recursos sejam abstraídos de seus limites físicos e agrupados em capacidade que podem ser alocados em vários aplicativos e cargas de trabalho em qualquer quantidade necessária.

A virtualização também permite a infraestrutura definida por software (SDI) — infraestrutura que pode ser provisionada, configurada, executada, mantida e “desativada” programaticamente, sem intervenção humana.

A combinação de arquitetura de nuvem e SDI oferece muitas vantagens aos data centers e seus usuários, incluindo o seguinte:

  • Utilização ideal dos recursos de computação, armazenamento e rede. A virtualização permite que as empresas ou nuvens atendam à maioria dos usuários usando o mínimo de hardware e com o mínimo de capacidade ociosa ou não utilizada.
     

  • Implantação rápida de aplicativos e serviços. A automação SDI torna o provisionamento de nova infraestrutura tão fácil quanto fazer uma solicitação por meio de um portal de autoatendimento.
     

  • Escalabilidade. A infraestrutura de TI virtualizada é muito mais fácil de escalar do que a infraestrutura de TI tradicional. Mesmo as empresas que utilizam data centers locais podem adicionar capacidade sob demanda, transferindo cargas de trabalho para a nuvem quando necessário.
     

  • Variedade de serviços e soluções de data center. Empresas e nuvens podem oferecer aos usuários uma variedade de maneiras de consumir e fornecer TI, tudo a partir da mesma infraestrutura. As opções são feitas com base nas demandas de carga de trabalho e incluem infraestrutura como serviço (IaaS)plataforma como serviço (PaaS)software como serviço (SaaS). Esses serviços podem ser oferecidos em um data center privado ou como soluções de nuvem em ambientes de nuvem privadanuvem públicanuvem híbrida ou multicloud.
     

  • Desenvolvimento nativo da nuvem. A conteinerização e a computação serverless, juntamente com um ecossistema robusto de código aberto, permitem e aceleram os ciclos de DevOps e a modernização de aplicações , além de permitir o desenvolvimento único de aplicativos em qualquer lugar.

Componentes de infraestrutura de data center

Servidores

Os servidores são computadores poderosos que fornecem aplicações, serviços e dados aos dispositivos do usuário final. Os servidores de data center vêm em vários formatos:

  • Os servidores montados em rack são servidores autônomos largos e planos, do tamanho de uma pequena caixa de pizza, projetados para serem empilhados uns sobre os outros em um rack, para economizar espaço (em vez de uma torre ou servidor de desktop). Cada servidor montado em rack tem sua própria fonte de alimentação, ventiladores, switches de rede e portas, juntamente com o processador, memória e armazenamento usuais.
     

  • Os servidores blade são projetados para economizar ainda mais espaço. Cada blade contém processadores, controladores de rede, memória e, às vezes, armazenamento; eles são feitos para caber em um chassi que contém vários blades e contém a fonte de alimentação, o gerenciamento de rede e outros recursos para todos os blades no chassi.
     

  • Mainframes são computadores de alto desempenho com vários processadores que podem fazer o trabalho de uma sala inteira de servidores blade ou montados em rack. Os primeiros computadores virtualizáveis, os mainframes, podem processar bilhões de cálculos e transações em tempo real.

A escolha do formato depende de muitos fatores, incluindo o espaço disponível no data center, as cargas de trabalho sendo executadas nos servidores, a energia disponível e o custo.

Sistemas de armazenamento

A maioria dos servidores inclui algum recurso de armazenamento local, chamado armazenamento de conexão direta (DAS), para permitir que os dados usados com mais frequência (dados ativos) permaneçam próximos à CPU.

Duas outras configurações de armazenamento do data center incluem o armazenamento conectado à rede (NAS) e uma rede de área de armazenamento (SAN).

O NAS fornece armazenamento de dados e acesso a dados a vários servidores por meio de uma conexão Ethernet padrão. O dispositivo NAS geralmente é um servidor dedicado com várias mídias de armazenamento: unidades de disco rígido (HDDs) e/ou unidades de estado sólido (SSDs).

Assim como o NAS, uma SAN permite o armazenamento compartilhado, mas uma SAN usa uma rede separada para os dados e consiste em uma combinação mais complexa de vários servidores de armazenamento, servidores de aplicativos e software de gerenciamento de armazenamento.

Um único data center pode usar todas as três configurações de armazenamento - DAS, NAS e SAN - bem como armazenamento de arquivosarmazenamento em bloco e tipos de armazenamento de objetos.

Rede

A rede do data center, que consiste em vários tipos de switches, roteadores e fibra óptica, transporta o tráfego de rede entre os servidores (chamado de tráfego leste/oeste) e de/para os servidores para os clientes (chamado de tráfego norte/sul).

Conforme mencionado acima, os serviços de rede de um data center normalmente são virtualizados. Isso permite a criação de redes de sobreposição definidas por software, construídas sobre a infraestrutura física da rede, para acomodar controles de segurança específicos ou contratos de nível de serviço (SLAs).

Fonte de alimentação e gerenciamento de cabos

Os data centers precisam estar sempre ativos, em todos os níveis. A maioria dos servidores possui fontes de alimentação duplas. Fontes de alimentação ininterruptas (UPS) alimentadas por bateria protegem contra picos de energia e breves quedas de energia. Geradores poderosos podem entrar em ação se ocorrer uma queda de energia mais severa.

Com milhares de servidores conectados por vários cabos, o gerenciamento de cabos é uma preocupação importante do design do data center. Se os cabos estiverem muito próximos uns dos outros, eles podem causar diafonia, o que pode afetar negativamente as taxas de transferência de dados e a transmissão de sinais. Além disso, se muitos cabos forem empacotados juntos, eles podem gerar calor excessivo. A construção e a expansão do data center devem considerar os códigos de construção e os padrões do setor para garantir que o cabeamento seja eficiente e seguro.

Redundância e recuperação de desastres

O tempo de inatividade do data center é caro para os provedores de data center e para seus clientes, e os operadores e arquitetos de data center fazem de tudo para aumentar a resiliência de seus sistemas. Essas medidas incluem desde matrizes redundantes de discos independentes (RAIDs) para proteger contra perda ou corrupção de dados no caso de falhas na mídia de armazenamento, até infraestrutura de resfriamento do data center de backup que mantém os servidores funcionando em temperaturas ideais, mesmo se o sistema de resfriamento principal falhar.

Muitos dos grandes provedores de data center têm data centers localizados em regiões geograficamente distintas, de modo que, se ocorrer um desastre natural ou uma interrupção política em uma região, as operações podem ser transferidas para outra região para obter serviços ininterruptos.

Uptime Institute (link externo ao ibm.com) usa um sistema de quatro camadas para avaliar a redundância e a resiliência dos data centers:

  • Nível I—Fornece componentes básicos de capacidade de redundância, como fonte de alimentação ininterrupta (UPS) e resfriamento 24 horas por dia, 7 dias por semana, para dar suporte às operações de TI em um ambiente de escritório ou além.
     

  • Nível II—Adiciona subsistemas redundantes de energia e resfriamento, como geradores e dispositivos de armazenamento de energia, para maior segurança contra interrupções.
     

  • Nível III—Adiciona componentes redundantes como um diferencial importante em relação a outros data centers. As instalações de nível III não exigem desligamentos quando o equipamento precisa de manutenção ou substituição.
     

  • Nível IV -Adiciona tolerância a falhas implementando vários componentes de capacidade redundante independentes e fisicamente isolados, de modo que, quando um equipamento falha, não há impacto nas operações de TI.

Controles ambientais

Os data centers devem ser projetados e equipados para controlar fatores ambientais, a maioria dos quais estão inter-relacionados, que podem danificar ou destruir o hardware e levar a tempos de inatividade caros ou catastróficos.

Temperatura: A maioria dos data centers emprega alguma combinação de resfriamento a ar e resfriamento líquido para manter os servidores e outros hardwares operando nas faixas de temperatura adequadas. O resfriamento a ar é basicamente o ar condicionado — especificamente, o ar condicionado da sala de computadores (CRAC) voltado para toda a sala de servidores, ou para fileiras ou racks específicos de servidores. As tecnologias de resfriamento líquido bombeiam o líquido diretamente para os processadores ou, em alguns casos, imergem os servidores no líquido de arrefecimento. Os provedores de data centers estão se voltando cada vez mais para o resfriamento líquido para maior eficiência energética e sustentabilidade — isso requer menos eletricidade e menos água do que o resfriamento a ar.

Umidade: A alta umidade pode causar ferrugem no equipamento; a baixa umidade pode aumentar o risco de picos de eletricidade estática (veja abaixo). O equipamento de controle de umidade inclui os sistemas CRAC mencionados acima, ventilação adequada e sensores de umidade.

Eletricidade estática: Apenas 25 volts de descarga estática para danificar equipamentos ou corromper dados. As instalações do data center são equipadas com equipamentos para monitorar a eletricidade estática e descarregá-la com segurança.

Incêndio: Por razões óbvias, os data centers devem ser equipados com equipamentos de prevenção de incêndio e devem ser testados regularmente.

 

 

 

 

Soluções relacionadas
Sistemas e soluções de infraestrutura convergente

As soluções modernas de infraestrutura convergente (CI) combinam servidores, armazenamento e rede em uma plataforma integrada.

Explore sistemas e soluções de infraestrutura convergente
Data centers globais

Saiba mais sobre os data centers da IBM Cloud localizados em todo o mundo para ajudar você a atender rapidamente a requisitos geográficos específicos.

Explore data centers globais
IBM Cloud

A IBM Cloud with Red Hat oferece segurança líder de mercado, escalabilidade empresarial e inovação aberta para aproveitar todo o potencial da nuvem e da IA.

Conheça a IBM Cloud
Recursos Localização, localização, localização

Saiba mais sobre a importância da segurança e privacidade dos seus dados na nuvem.

Dê o próximo passo

Simplifique o gerenciamento de dados e infraestrutura com o IBM Storage FlashSystem, uma solução de armazenamento all-flash de alto desempenho que simplifica a administração e a complexidade operacional em ambientes locais, na nuvem híbrida, virtualizados e conteinerizados.

    Explore o armazenamento do FlashSystem Faça um tour