Revelan problemas creados por la virtualización en centros de datos

De acuerdo a Extreme Networks, las arquitecturas de red con múltiples niveles deben evolucionar hacia una arquitectura más plana para hacer frente al creciente tráfico de información que demandará el cómputo en la nube en los próximos años.

Extreme Networks, Inc. (Nasdaq: EXTR) informó que la tecnología de virtualización ha transformado dramáticamente las tecnologías de información, pero a pesar de sus beneficios también ha creado problemas en las redes de los Centros de Datos debido a que la densidad de cómputo y la cantidad de máquinas virtuales por servidor físico, están aumentando rápidamente. Tal situación provoca que el intenso tráfico de información requiera una red robusta, flexible y automatizada que soporte la virtualización y el cómputo en la nube, o lo que es lo mismo, un ecosistema de punto final diversificado.

A decir de la empresa estadounidense, la capacidad de almacenamiento y la convergencia de redes están mostrando la necesidad de contar con arquitecturas de red más confiables y de mayor rendimiento. Esto ha llevado a los distribuidores a desarrollar una arquitectura Ethernet con características especiales que se adapten a los nuevos requerimientos de las redes por el creciente volumen de servicios que reciben.

“Las tradicionales arquitecturas de red con múltiples niveles necesitarán evolucionar hacia una arquitectura más plana para hacer frente a los requisitos de escalamiento, dirigir el tráfico de manera más eficaz y los requisitos de latencia que demandará el cómputo en la nube en la generación siguiente”, señaló Francisco Villarreal, Consultor de Redes Senior de Extreme Networks Latinoamérica.

De lo anterior se desprende que muchos proveedores de servicios de telecomunicaciones tratan de evitar las tecnologías propietarias que conducen a un lento retorno de inversión y alto costo-beneficio; lo que traería el mensaje de que la mejor manera de operar es a través de tecnologías abiertas, no propietarias, y basadas en estándares aceptados.

Otro factor también relacionado con los costos, es que el precio de un equipo 40GbE, en comparación con uno de 100 Gigabit Ethernet (GbE), es más accesible para los proveedores en la nube debido a que los servidores se están cambiando a 10GbE y la capa de acceso a la red también va por la ruta de los 10GbE. Eso significa que la interconectividad de los conmutadores de datos de la capa de acceso en forma conjunta, se trasladarán a la tecnología 40 GbE colocándola como la más rentable.

Con el propósito de soportar la convergencia de redes y almacenamiento, la tecnología tipo Data Center Bridging (DCB) proporciona un mecanismo para separar el tráfico de una red Ethernet en distintas clases de tráfico cuyo flujo puede ser controlado individualmente. El ancho de banda garantizado también puede aplicarse a los diferentes tipos de tráfico individual. Esta tecnología proporciona un rendimiento predecible para diferentes tipos de almacenamiento en una red Ethernet típica. Data Center Bridging está disponible en las nuevas soluciones 10G y 40G.

“La necesidad de simplificar la administración se está cumpliendo, una vez más, a través de un enfoque de estándares abiertos (OpenFlow) que se mantiene como una promesa en ascenso y como la tecnología que se usará para la provisión, configuración y administración ya que ofrece un enfoque centralizado para construir inteligencia en las redes y para reducir la complejidad asociada con la administración distribuida y los planos de control. La adopción del cómputo en la nube hacia el próximo nivel para soportar altos volúmenes de tráfico deberá contemplar las diferentes arquitecturas disponibles en el mercado, como Extreme Network’s Open Fabric Architecture, y determinar si se trata de un ajuste a las necesidades de los negocios”, finalizó Francisco Villarreal.


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022