A conectividade 5G introduz a ideia da metodologia “muitos para um” no que se refere à conectividade sem fio.
A antecipação da tecnologia sem fio 5G aumentou a cada ano desde o lançamento do 4G. A demanda por serviços de streaming, Inteligência Artificial e outros aplicativos com grande largura de banda, aumentou significativamente e isso está impulsionando a demanda por mais velocidade e menos latência.
Novas tecnologias, como Realidade Aumentada (RA), carros autônomos e a explosão da IoT se beneficiarão das velocidades mais altas e menor latência da tecnologia 5G.
Embora haja uma percepção geral do contrário, os sistemas 5G não são mais apenas objetos de pesquisa dentro de grandes empresas de telecomunicações ou o tópico de apresentações em conferências em fóruns do setor.
A realidade é que as corporações vão implantar sistemas 5G nos próximos anos, o que significa que os desenvolvimentos já estão avançando rapidamente. Por exemplo, a Ericsson pretende lançar serviços 5G no Japão a tempo de apoiar as Olimpíadas de Tóquio em 2020.
No entanto, qual seria o custo dessa melhoria na tecnologia? A partir da experiência de um usuário final, raramente é dada atenção à infraestrutura e ao trabalho que é feito nos bastidores ou no back-end da conexão do ponto de extremidade com a Internet.
Do ponto de vista do data center, como o 5G afetará as operações e o planejamento do dia a dia que entram em seu gerenciamento e manutenção? Embora a ideia de aumento de velocidade, latência extremamente baixa e expansão da IoT seja estimulante, é importante adotar uma abordagem holística sobre qual será o impacto dessa tecnologia.
A evolução do Data Center
A tecnologia 4G é voltada para uma metodologia “um para um”. Quando o dispositivo do ponto final do usuário está conectado a uma torre, ele faz a transição para a próxima torre mais próxima à medida que sua localização é alterada. Isso fornece ao usuário a experiência que eles esperariam de conexões 4G ou 4.5G LTE.
Enquanto isso, o 5G introduz a ideia da metodologia “muitos para um” no que se refere à conectividade sem fio. O dispositivo do ponto final do usuário precisará se comunicar com muitas torres ou antenas ao mesmo tempo para fornecer velocidades mais altas e menor latência. Isso exigirá mais torres e antenas e, consequentemente mais centros de dados.
A construção de um “data center de borda” colocará as informações do usuário mais próximas e as processará localmente para fornecer a experiência de alta velocidade e baixa latência esperada. Esse processo contorna a necessidade dos conteúdos do usuário atravessarem a nuvem e voltarem. Isso ajudará em casos de uso, como serviços de streaming.
A maneira como construímos esses novos data centers e modernizamos os antigos também precisará se adaptar para atender a essas demandas. Por exemplo, seus três principais aspectos - energia, espaço e refrigeração - precisarão ser renovados. As redes 5G podem demandar até 100 vezes mais recursos do que a típica 4G.
Efeitos do 5G na infraestrutura do Data Center
Como essa conectividade afetará a infraestrutura necessária para tornar esses avanços tecnológicos uma realidade? As conexões são definidas pela capacidade ou largura de banda e também de quanta informação pode viajar quase à velocidade da luz via fibra.
Com mais de 75 bilhões de dispositivos previstos para serem conectados à Internet até 2025, mais dados serão criados, o que significa que precisaremos de uma maior capacidade para transmiti-los de forma confiável e consistente. E quando se trata de aplicativos 5G, consistência e confiabilidade são tão importantes quanto a velocidade.
Os recursos
No geral, mais recursos significam mais requisitos de equipamentos, energia e espaço. Para atender às especificações de um data center pronto para 5G, o impacto ambiental precisa ser analisado. O aumento de recursos e requisitos para construir novos centros ou modernizar antigos pode ter um impacto negativo nas emissões e na pegada de carbono.
O pessoal se torna uma prioridade
Com a necessidade de novas construções e o aumento dos recursos, a equipe de TI também se tornará uma prioridade. Ter o pessoal certo no trabalho tornará a transição para o 5G muito mais fácil.
O foco deve ser baseado na experiência anterior em 4G / 4.5G LTE. O pool de talentos para o trabalho será relativamente pequeno, porque o 5G ainda está por vir, e os que estão equipados para lidar com a transição estão mantendo as infraestruturas 4G.
Como a 5G está prevista para 2020, daqui a menos de um ano, seria vantajoso começar a recrutar e treinar novos funcionários para focar em seu lançamento. Será necessário manter uma presença 4G, enquanto a empresa se planeja para a nova rede.
Vantagem competitiva
Embora algumas mudanças na infraestrutura e na equipe possam ser necessárias, a corrida para se estar preparado produzirá uma boa concorrência no mercado. Os centros de dados que estiverem prontos para serem 5G terão uma vantagem competitiva sobre os desatualizados quando os clientes estiverem fazendo compras para colocation.
A tecnologia 4G atual opera dentro ou próximo do espectro de frequência de 1 GHz, enquanto a 5G opera na frequência de 28 e 39 GHz. Isso permite que grandes quantidades de dados percorram a frequência a uma taxa de latência muito baixa.
O futuro do 5G
Embora saibamos que essa rede se tornará o tecido invisível que conecta sem fio todos os dispositivos e aplicativos um dia, é difícil prever exatamente como será seu futuro. Mas é certo que a quantidade de dados que será criada aumentará significativamente nos próximos anos e, portanto, será preciso mais capacidade com velocidade confiável, consistente e quase instantânea.
Para que isso seja eficaz, a latência da rede precisa ser menor que 1 ms. Isso não só requer a infraestrutura 5G instalada nos data centers, mas também exige que eles estejam localizados mais próximos dos usuários e das torres de rádio celular que os atendem.
Embora os conteúdos precisem residir no upstream, eles também precisarão estar prontamente disponíveis em locais mais remotos, na borda da rede. Essa mudança potencialmente nega a tendência de localização de data centers próximos a usinas de energia que possam suprir suas demandas massivas ou em climas onde a necessidade de refrigeração e a consequente demanda adicional sejam reduzidas.
Parte da solução está no recente crescimento de micro data centers, cuja capacidade mais baixa, mas com números mais altos, será suficiente para suportar essa infraestrutura de nuvem mais distribuída. Mesmo assim, as fontes de energia da concessionária ainda podem ser limitadas e, portanto, torna-se ainda mais vital que toda a capacidade de energia disponível provisionada possa ser disponibilizada e usada de maneira eficaz.
Novamente, isso pode não ser um problema para centros pequenos na periferia das grandes cidades, onde a energia da rede é abundante, mas será verdade em áreas mais rurais, onde a infraestrutura não está bem desenvolvida. Esses sistemas não têm condições de bloquear a capacidade apenas porque foram dimensionados para atender à demanda de pico ou fornecerem redundância para atividades de missão crítica.
É por isso que a outra parte da solução vem da implantação do SDP (software defined power) com base em uma combinação de hardware e software que pode alocar de maneira inteligente e dinâmica a energia em todo o data center. No entanto, antes de nos aprofundarmos na solução, vamos entender o problema com mais clareza.
Essencialmente, há três cenários relacionados à distribuição e ao gerenciamento de energia em centros tradicionais que resultam em sua exigência de capacidade sendo especificada e subutilizada.
O primeiro, nas infraestruturas de camada 3 ou de nível 4, há a necessidade de fornecer 100% de redundância para tarefas de missão crítica. Isso significa que todos os elementos no caminho da fonte de alimentação, desde o fornecimento externo de energia e o gerador de backup, passando pela fonte de alimentação ininterrupta (UPS) e pela unidade de distribuição de energia (PDU), até os racks de servidores e servidores individuais são duplicados.
Esse é geralmente o caso, mesmo que nem todos os servidores tenham dois cabos, pois não precisam executar tarefas críticas. Consequentemente, se metade da carga de trabalho não for crítica, metade da capacidade de energia redundante provisionada para esses servidores não será necessária, o que significa que um quarto da capacidade de energia total não pode ser acessado porque foi alocado para esses servidores, embora seja teoricamente disponível.
Na segunda situação, há duas instâncias em que a provisão de energia é dimensionada para lidar com as cargas de pico. Uma delas é determinada pela utilização da CPU e pelo tipo de tarefa que está sendo realizada, em que algumas tarefas são inevitavelmente mais intensivas do que outras. Por exemplo, o Google mostrou que os servidores que manipulam o webmail têm uma taxa de energia média a pico de 89,9%, enquanto as cargas de pesquisa na web têm uma proporção menor de 72,7%. Assim, a especificação de todos os servidores para webmail significa que os servidores destinados apenas para uso na pesquisa na Web terão, no mínimo, 17% de capacidade de energia excedente.
O último caso de utilização é onde a carga varia ao longo do tempo. Esse pode ser um padrão que ocorre ao longo do dia, mas também pode resultar de alterações altamente dinâmicas, dependendo da tarefa que está sendo realizada. Por exemplo, o uso real de energia de um rack de servidor pode ser de 8-10 kW, mas se a demanda atingir o pico de 16 kW, será necessário provisionar capacidade de energia para 16 kW.
Escreva seu comentário