DiarioTi.com - el diario del profesional TI

Lunes 16 Dic 2019 | Año 19 | Edición 4946
Menu
letter


Análisis |La Tercera Plataforma: Donde los datos están al centro de la transformación digital

Las empresas que construyen centros de datos están considerando GIFEE - Google Infrastructure For Everyone Else, que esencialmente implica colocar bloques Lego de infraestructura convergente, donde toda la inteligencia es ejecutada en el software de los dispositivos.

Diario TI 31/08/19 12:32:05

Ksenia Efimova, Analista Senior de Investigación de IDC, EMEA Telecoms and Networking, habló sobre Tendencias de Gestión Arquitectónica y Centros de Datos de Nueva Generación en un reciente encuentro de EMEA NetEvents en Barcelona. Efimova definió el contexto a partir del modelo “Plataforma”. La Primera Plataforma es la computadora mainframe, la Segunda Plataforma es cliente/servidor. “Según IDC, la tercera plataforma consiste en nube, social, movilidad y datos; y aceleradores de innovación, AR, VR, AI, robótica, blockchain, etcétera” – Fig 1.

Ksenia Efimova señaló que los datos están en el centro de la transformación digital y que su complejidad y volumen están aumentando: “¿Qué hay que hacer y qué hay que cambiar con respecto a la gestión de los datos, la seguridad de los datos y el enfoque general? Los centros de datos son las herramientas para procesar los datos y los centros de datos necesitan cambiar y adaptarse”. ¿Cómo pueden cambiar? Una primera respuesta obvia es que la velocidad debe aumentar. Efimova mostró un diagrama de las expectativas pasadas y futuras para las ventas de switches de alta velocidad – Fig 2

“Varios proveedores ya han introducido 400 gigas, pero eso no significa que las empresas lo acepten. La mayoría de las veces, los hyperscalers estarán a cargo”.

Sin embargo, subrayó que este aumento de la velocidad no resolverá todos los problemas, ni tampoco se romperá y reemplazará la infraestructura. Lo que se necesita es un enfoque totalmente nuevo: para el almacenamiento, los servidores, la red y el sistema en su conjunto. Para empezar, cada vez nos oponemos más al consumo de energía y estamos a favor de una mayor eficiencia, ya que la complejidad de gestionar una combinación de centros de datos tradicionales, tanto privados como públicos, basados en la nube y en los locales, exige una mayor automatización y una mayor inteligencia de las máquinas.

En ese contexto, inició la discusión con su panel integrado por ejecutivos de NetFoundry, Mellanox Technologies y VMware haciendo la siguiente pregunta: ¿Cuál debería ser, en su opinión, la primera consideración -ya sea para la empresa o para el mercado hyperscale- a la hora de planificar el centro de datos de la 3ª Plataforma del futuro?

Philip Griffiths, Head of EMEA Partnerships de NetFoundry, señaló que lo primero que hay que hacer es despejar la estrategia y los objetivos: “¿Desea construir un centro de datos a gran escala? ¿O simplemente algo local, por ejemplo, una subsidiaria alemana para mantener los datos en el país? ¿O está buscando ubicaciones edge para reducir la latencia? O quizás procesamiento IOT, en el que sólo se necesitan un par de blades o racks dentro de la torre de una telco?”.

Una vez acordado esto, debe decidir cómo entregar lo que el cliente quiere, como por ejemplo, reducir el consumo de energía, usar automatización e IA, tener todo definido por software para evitar enviar a los ingenieros in situ para que resuelvan los problemas manualmente cada vez que se necesite.

“Pero en realidad”, resumió, “el primer paso clave es decidir lo que quiero conseguir. ¿A quién le estoy entregando esto? ¿Dónde voy a ganar dinero? Algunos de los proveedores de centros de datos, como Equinix, por ejemplo, se han reposicionado como una empresa de conectividad a diferentes nubes, proporcionando lugares donde los datos se están reubicando”.

Kevin Deierling, Director de Marketing de Mellanox Technologies, propuso un enfoque holístico: “Piensa fuera de la computadora. Antiguamente se podía contar con que la ley de Moore duplicaba el desempeño cada dos años – las CPUs podían absorber todo el software y uno seguía escribiendo aplicaciones ineficientes”. Refiriéndose a Martin Casado y VMware añadió: “son tecnologías increíbles, pero que pueden consumir todos los ciclos de la CPU”.

Antiguamente había un router Cisco que reenviaba paquetes usando software: “Hoy en día vendemos switches de 100 GB, 400 GB: ninguna red en el mundo puede reenviar paquetes usando software”. En su lugar, necesita un híbrido de hardware y software ASIC para acelerar el reenvío de máquinas virtuales y normas de cortafuegos y equilibrio de carga, etc. “Cuando se lo comenté por primera vez a Martin Casado… estaba tan emocionado. Preguntó: ‘¿Quieres decir que pones un switch virtual en silicio en un Ethernet NIC? Es fantástico… Lástima que no pueda usarlo, porque soy VMware y necesito controlar esa interfaz para tener el control del software’. Pero luego explicamos que la ruta de control sigue siendo controlada por el VMware”.

Las decisiones de política deben seguir siendo tomadas en la gestión de mantenimiento; es sólo la ruta de datos la que se acelera. “La inteligencia debe seguir estando en ese nivel superior; y realmente, nos gusta pensar en la optimización a nivel de centro de datos… no se está optimizando a nivel de caja individual, sino que a través de toda la plataforma (computación, almacenamiento, redes y aplicaciones) se piensa de forma holística”. El centro de datos es la computadora. Resuelve las cosas a ese nivel – en lugar de ponerte a desmalezar – y tendrás mucho más éxito”.

Joe Baguley, Vicepresidente y Director de Tecnología para EMEA, VMware, estuvo de acuerdo en concebir el centro de datos completo como un único ordenador. Entonces: “Muchos de los clientes con los que estamos hablando no están construyendo nuevos centros de datos; lo que buscan es trasladarse al centro de datos de terceros… o simplemente trasladar su VM a un host que las hospede”.

“Los que están construyendo centros de datos están mirando a GIFEE – Google Infrastructure For Everyone Else – preguntando cómo los hiperescaladores construyen un centro de datos y “¿cómo puedo hacerlo yo mismo? Básicamente, todo se hace en software. “Los clientes que están construyendo centros de datos a gran escala, están armando bloques Lego para infraestructura hiper-convergente conectada a través de una spine de 10 gigas, luego 10/40, o incluso 40/100… la spine es sólo la capa plana 2, porque toda la inteligencia se hace en el software en los dispositivos”.

Esto permite un uso mucho más eficiente del hardware desde el punto de vista energético. También permite que el hardware haga lo que él llamó “una muerte rodante”. Explicó cómo la mayoría de las empresas se abarrotan de hardware comprado con el paso de los años para algún proyecto específico, mientras que un operador de CloudScale adecuado en una plataforma de software virtualizada va añadiendo nuevo hardware, como si fueran bloques de Lego, a los bastidores. Las cargas de trabajo más críticas ingresan automáticamente al kit más nuevo y, por lo tanto, el hardware antiguo se abre paso a través de la jerarquía para realizar trabajos de menor prioridad hasta que desaparece. Este proceso de rodaje constante es mucho más eficiente que todos los picos y canales de actualización de hardware.

Baguely también hizo una advertencia sobre la eficiencia energética: “Hay que tener en cuenta la paradoja de Jevon en el sentido de que cuanto más hacemos algo eficiente, más barato es su funcionamiento, por lo tanto, más gente lo busca, y mucho más lo usamos… Decir, de buenas a primeras, que el uso de la nube es eficiente en lo que respecta al uso de la energía, es un camino muy ostensible, muy largo, y muy oscuro, que es mejor evitar”.
Ksenia Efimova le preguntó si este enfoque de hiperconvergencia era adecuado para todos: “ahora mismo vemos la migración de los sistemas CRM, vemos la migración de los sistemas ERP a la hiperconvergencia. ¿Así que esa tendencia se mantendrá hasta el final?”

Baguely contestó: “Sí, si se puede virtualizar, se ejecutará en hiperconvergencia y se puede virtualizar prácticamente cualquier cosa… La barrera a la HCI rara vez tiene que ver con las aplicaciones o el software que estamos intentando ejecutar; es la gente que no entiende cómo sacar partido de la HCI. Porque, si está utilizando una infraestructura hiperconvergente y construyendo correctamente un centro de datos como una gran máquina, hay un montón de gente que necesita abandonar sus feudos y entender que están jugando un juego más grande. Redes, computación, almacenamiento, todo en uno”.

Kevin Deierling señaló cómo las cosas se están moviendo hacia el borde: “Tenemos un SmartNIC que combina una conectividad de red de 25 gigas, 100 gigas con núcleos ARM para aplicaciones de vanguardia; y ahora está ejecutando ESXi. Así que estamos empezando a ver que el hipervisor funciona en estas pequeñas máquinas”. Se refirió a la hiperconvergencia como “infraestructura invisible”: fácil de desplegar y que simplemente funciona, hasta que mueves una VM y rompes la red. Pero ahora, con la inteligencia de SmartNIC en la red, cuando algo se mueve se produce una notificación y la red se adapta: “así que ahora también hemos hecho que la red sea invisible”. Estuvo de acuerdo en que los problemas restantes eran de comportamiento.

Esta migración de la inteligencia hacia el borde propició nuevos debates. Philip Griffiths dio el ejemplo de la IO 5G – cómo se sugirió originalmente que todo se conectaría a la nube, pero en su lugar el cambio es a una arquitectura de varios niveles, con un centro de datos de nube masivo, luego centros de datos de nube regionales, y luego centros de datos de nube en el borde de los locales y tal vez incluso pasarelas de IOT haciendo procesos locales. “Estamos trabajando con Dell y VMware en una oportunidad IOT en la que nos estamos desplegando en gateways para proporcionar esa conectividad en varios niveles de computación, porque esa red MPLS tradicional -en la que tendríamos operadores regionales que se conectan en su totalidad a un punto central- no es posible”. Estamos haciendo que estos centros de datos procesen datos absolutamente en todas partes”.

Todo sonaba muy positivo, hasta que Kseniya planteó el problema de la escasez mundial de personal cualificado. Deireling sugirió que los hiperescaladores están dispuestos a dedicar tiempo al desarrollo para ahorrar dinero, mientras que las empresas gastan dinero para ahorrar tiempo: En realidad, pagarán por adelantado para que alguien más los administre, y creo que es una compensación falsa… lo que han comprado es complejidad”. Piensas que estás obteniendo una plataforma llave en mano de Cisco y la complejidad es tan alta que realmente pagas por los servicios gestionados para gestionar todo este material”.

Para Baguely la clave de la hiperescala está en la automatización: “Las empresas aún no se han dado cuenta de que la automatización es un requisito fundamental del diseño, no un tornillo….”. Veo a estas personas construyendo sistemas y luego trabajando en cómo automatizar, en lugar de trabajar en cómo construir un sistema automatizado – es la única manera de conseguir escalabilidad”.

La última pregunta de Kseniya fue sobre el marketing: “¿A quién ve como su socio a la hora de dirigirse a los clientes y decirles que podemos ayudarles a transformar sus centros de datos?

Por Mellanox, Deierling dijo que han estado vendiendo principalmente a los gigantes de la hiperescala, y eso es bastante sencillo. Tratar con una configuración de varios proveedores es más difícil, por lo que VMware es un buen socio. “A veces son sólo retos empresariales y tenemos muchos socios que se unen porque estamos optimizando toda la pila de soluciones: la capa de infraestructura, la capa de aplicación, las redes y el almacenamiento. Todo tiene que estar completamente integrado. Ese es el mayor reto al que nos enfrentamos”.

Por NetFoundry, Philip Griffiths, dijo que ellos también tenían muchos socios: “Hay muchas cosas interesantes que podemos hacer, pero en última instancia, hay que cuadrar las cosas con lo que es bueno para el negocio y cómo va a hacer que las cosas avancen”. Se necesita gente con dos habilidades: tecnología y relaciones con los clientes: “En primer lugar, la mayoría de las empresas de TI están construidas para impulsar las ventas del negocio. Dos, contar con personas capacitadas que reúnan a esas personas y vean el valor de la cooperación”.

Joe Baguely de VMware dijo: “El reto para la mayoría de las organizaciones es una cierta estrechez de miras, basada en su procedencia. Podrían ser expertos en redes, así que todo se verá a través de la lente de la red. O será a través de la lente de almacenamiento, la lente de cálculo, la lente de servicio administrado, etc. Es en realidad entender la necesidad de tener un punto de vista más amplio, o al menos reunirlos alrededor de una mesa para construir algo más grande y más amplio.

“En VMware hemos recopilado una mentalidad increíblemente diversa para construir esta visión en el futuro. Porque teníamos a gente como Martín Casado en el equipo para recordarnos que debemos ver las cosas de otra manera. En los primeros días estábamos hablando de las máquinas virtuales y uno de los miembros del equipo dijo: ‘oh, no, en realidad deberían llamarse contenedores’. Y todos decían: “¿Contenedores? Estamos en 2011. ¿De qué estás hablando? Fue el tipo que inventó las zonas en Solaris, así que sabía de lo que hablaba… Eso nos hizo pensar, no sólo estamos hablando de una futura plataforma para VMs, sino de una futura plataforma para aplicaciones en contenedores; resultan ser VMs ahora mismo y en el futuro son contenedores y el siguiente es unikernels y así sucesivamente”.

Por Lionel Snell, Editor, NetEvents

  • Seleccione su país -+

    Diario TI utiliza una plataforma GeoIP que automáticamente intenta detectar el país desde donde usted se conecta, para así presentarle contenidos regionales. Sin embargo, si la detección automática no es posible, usted puede seleccionar manualmente su país.



  • El camino a la Inteligencia Artificial está empedrado de bombo