Hyperscale Computing – Quem precisa?


Termos como Cloud e Big Data já passaram a fazer parte do cotidiano dos profissionais de TI e, algumas novidades como o IoT (Internet das Coisas, em tradução livre) estão começando a incrementar o movimento do já agitado mercado de tecnologia.

A grande questão é que, para os profissionais de infraestrutura, termos baseados em aplicações ou softwares algumas vezes acabam se tornando quase surreais pois falta um eventual elemento de ligação e, para a maior parte das novas tecnologias e plataformas que estão sendo apresentadas no mercado, o elemento é o Hyperscale Computing.

Sabe-se que, ao se tornarem mais complexas e produzirem resultados de mais alto nível, as aplicações tendem a consumir mais recursos de processamento, memória e armazenamento. Existem apenas 2 maneiras de gerenciar a expansão necessária: scale-up e o scale-out.Datacenter

O Scale-up é a estratégia tradicional de acrescentar processadores, memória, discos ou placas de expansão a sistemas já existentes, no intuito de fornecer mais recursos. Nesse tipo de abordagem há um enorme inconveniente relacionado à disponibilidade do serviço e, consequentemente, sua segurança: qualquer redundância torna-se extremamente onerosa.

O Scale-out corresponde ao processo de adicionar máquinas inteiras ou sistemas de armazenamento em um ambiente distribuído. Isto muda drasticamente o perfil da redundância, já que a unidade redundante passa a ser o servidor todo incluindo seu armazenamento.

O Hyperscale Computing é um estratégia de scale-out para ambientes de TI que capacitam uma estrutura a expandir, de maneira distribuída e eficiente, de algumas para milhares de máquinas utilizando a mesma estrutura, quer seja para processamento ou armazenamento. Sendo uma estratégia, envolve diferentes aspetos da infraestrutura, alterando a concepção de novas máquinas e mudando a forma de administrar o parque e suas aplicações.

A administração de ambientes de hiperescala pode ser feita manualmente e de maneira simples, entretanto, precisamos observar que o conceito abre as portas para uma nova camada de software de administração (Software Defined Network, Software Defined Storage, Cloud computing, entre outros) que utiliza alguns atributos básicos de máquinas com o perfil de Hyperscale para o deployment, gerenciamento e monitoramento em massa do armazenamento, rede e recursos de processamento de um ambiente como este.

Outro aspecto importante desta estratégia é trabalhar sob o paradigma do agnosticismo de Hardware, permitindo não só a utilização de diferentes plataformas, mas de máquinas com capacidades distintas, deixando ainda mais agressivo o foco de economia baseada no TCO (Custo Total de Propriedade).

Abordando a concepção das máquinas, observaremos que a palavra de ordem é a eficiência. A busca pela eficiência pode ser encontrada principalmente sobre 3 aspectos: economia energética, dissipação de energia e consumo de espaço útil e a eficiência é o atributo de Hyperscale Computing que traz a maior quantidade de benefícios para o seu datacenter.

A Supermicro® é pioneira no lançamento de equipamentos focados na eficiência: a eficiência energética, sendo uma das primeiras empresas a falar de Green IT e disponibilizando em sua linha de equipamentos servidores Twin, que compartilham o mesmo chassis, reduzindo o número de fontes (redundantes) necessárias para alimentar vários sistemas a 2 ou 4 fontes de alto desempenho, e reduzindo em até 15% o consumo de energia frente a equipamentos similares oferecidos pela concorrência; a eficiência no consumo energético com servidores que podem trabalhar em até 47º de temperatura ambiente sem apresentar perda de performance e a eficiência em espaço, oferendo máquinas de altíssima densidade para grande concentração de núcleos de processamento, memória e armazenamento.

A Open-e® disponibiliza um software que trabalha na camada administrativa do Hyperscale que é o DSS, um sistema de gerenciamento para SDS ( Software Defined Storage) que permite gozar dos benefícios da heterogeneidade de hardware, e alcançar redes de armazenamento eficientes baseadas em software.

Mas a pergunta que não quer calar: “Eu sou pequeno, preciso mesmo de Hyperscale Computing?”. A resposta é sim! Para permitir um escalabilidade eficiente (rápida, econômica, controlada, etc.) as máquinas individualmente ficaram mais inteligentes do ponto de vista do consumo de recursos, inclusive os financeiros.

Não quer dizer que você vá, imediatamente escalar de 1 para 100 servidores, mas estará adquirindo um hardware mais compacto, que consome menos energia, que tem uma dissipação mais adequada e que custa mais barato pois a quantidade de metal / nó é menor: várias máquinas compartilham o mesmo gabinete, tornando a relação custo / benefício mais atraente.

Além disso, que tal aproveitar o parque de máquinas que você adquiriu 2 anos atrás e que não atende mais ao processamento da sua aplicação? Amplia o ciclo de vida do hardware e economiza nas aquisições.

Quer mais dicas? Fale conosco e saiba mais sobre como usar novas tecnologias a seu favor. Temos a receita certa para os desafios de quem quer crescer!

 


Sobre Jader Simões

Diretor Administrativo - profundo conhecimento em planejamento, desenvolvimento e suporte de soluções de hardware de computador. Experiente administrador de rede, Linux e Windows, com conhecimentos em firmware, drivers e interação com sistemas operacionais. Extensa experiência em montagem de equipamentos de informática, automação de testes, verificação de qualidade e solução de problemas. Estratégico, focado e orientado para negócios profissional com mais de 18 anos de experiência em tecnologias de informação, hardware, serviços e Datacenters. Orador público confiante, capaz de efetivamente gerar e realizar apresentações sobre temas complexos. Experiente no uso de estruturas modernas, metodologias comprovadas, melhores práticas e padrões (Gestão de Projetos, ITIL, COBIT, ISO 9000 e 20000). Conhecimento extenso em planejamento, desenvolvimento, configuração e gerenciamento serviços de TI corporativos.