Google lanza servicio de almacenamiento en la nube para datos fríos

No es «online» ni «offline», sino «nearline».

Varios proveedores de servicios en la nube ofrecen actualmente dos alternativas para el almacenamiento de datos. Uno de ellos ha sido diseñado para datos altamente relevantes, que son constantemente utilizados y modificados y que, por lo tanto, deben estar rápidamente disponibles. El segundo modelo corresponde a los denominados datos fríos, es decir, datos que no son modificados con frecuencia, donde es aceptable una velocidad de acceso más reducida. La ventaja de este último modelo es que el precio por kilobyte de datos almacenados es considerablemente inferior al de los datos de acceso inmediato.

Nearline

El 11 de marzo, Google lanzó una tercera alternativa, denominada Google Cloud Storage Nearline. La palabra Nearline indica que se trata de datos que no están totalmente online, ni tampoco offline. El tiempo de acceso estándar al primer byte será de 3 segundos. Este servicio es considerablemente más barato que el servicio de almacenamiento ordinario en Google, con el precio de 0,01 dólar por GB por mes equivale, de hecho, al mismo que Amazon cobra por el servicio offline Glacier.

Al igual que ocurre con otros modelos, para los usuarios es gratuito subir los datos a la nube, siendo el precio de descarga de los datos que marca la diferencia. El precio de descarga del servicio Nearline oscila entre los 0,08 y los 0,12 dólares por GB. La tarifa se reduce cuando el usuario descarga más de 10 TB en el transcurso de un mes. Las descargas desde el servicio Glacier de Amazon es de 0,05 y 0,09 dólares por GB.

Velocidad

La velocidad de descarga en Nearline depende del volumen de datos almacenados. Esta velocidad es escalable, en proporción lineal, al volumen de datos; con 4 MB/s por cada terabyte de datos almacenados. Por ejemplo, si el usuario almacena 3 TB, los datos podrán ser descargados con una velocidad garantizada desde la nube de Google de 12 MB/s. Esto presupone, sin embargo, que todos los proveedores de conectividad en el tránsito norte-sur de los datos; es decir, las instancias que intermedian entre el centro de datos de Google, y el cliente, tengan la misma velocidad, lo que puede convertirse en un rato en sí si el usuario tiene muchos datos almacenados.

En su blog, Google indica que el volumen de datos que está siendo generado a escala mundial es formidable y continúa creciendo a un ritmo exponencial. “Debido a este creciente volumen de datos, tiene importancia crítica que usted almacene sus datos de manera correcta, manteniendo los datos frecuentemente utilizados accesibles con facilidad, y manteniendo los datos fríos disponibles cuando sea necesario, teniendo además la capacidad de mover fácilmente datos entre ambos sistemas de almacenamiento. Las organizaciones ya no pueden permitirse el lujo de eliminar datos, dada la importancia crítica que estos tienen al conducir análisis y obtener inteligencia de mercado. Pero tampoco pueden permitirse el lujo de pagar de más por los crecientes volúmenes de datos almacenados”.

Fotografía: Turtix © Shutterstock.com


Únase a la conversación

Contacto | Diario TI es una publicación de MPA Publishing International Ltd., Reino Unido. © Copyright 1997-2022