Un reporte del Comité Presidencial de Asesores en Ciencia y Tecnología (PCAST) de los Estados Unidos que incluyó al Programa Federal de Investigación y Desarrollo en Networking y Tecnologías de la Información (NITRD, por sus siglas en inglés)-, que analiza diversas áreas de tecnología, concluyó que toda agencia de gobierno necesita contar con una estrategia para los Big Data, dado el gran flujo de datos que los Estados actuales deben manejar.
El reporte, Diseñando el futuro digital, agrega que la recolección, gestión y análisis de datos es una preocupación que está creciendo rápidamente en un momento en que el volumen de datos está aumentando exponencialmente, debido a la proliferación de sensores y nuevas fuentes de datos.
El estudio abarcó cinco temas variados, priorizando la explosión de la información y los Big Data destacando también el incremento en la importancia de la minería de datos, descrita como la transformación de los datos en conocimiento, y del conocimiento en acción.
El grupo de trabajo, formado por catorce miembros, incluye , CTO de Teradata Corporation, la compañía líder a nivel mundial focalizada en data warehousing. Brobst es reconocido por su experiencia en negocios globales y clientes de Gobierno, en la identificación y desarrollo de oportunidades para el uso estratégico de la tecnología. Además, es un presentador regular en los eventos del Instituto de Data Warehousing.
Estamos entrando en la era zetabyte y no es una exageración decir que toda agencia de gobierno necesita contar con una estrategia para Big Data. Mis colegas y yo coincidimos en que esto es imprescindible, y compañías líderes están actualmente perfeccionando dichas estrategias, señaló Brobst.
Sin embargo, es vital que las agencias gubernamentales actúen de inmediato, teniendo en cuenta que el compromiso de los gobiernos a nivel global es la franqueza y la transparencia de la información, la cual se basa en sistemas poderosos de gestión de datos, que manejan consultas simultáneas y complejas, cuadros de mando extensos y cargas de trabajo que en conjunto deben analizar enormes cantidades de datos desde una amplia variedad de fuentes, añadió.
Big Data es un término referido a conjunto de datos cuyo tamaño está más allá de la capacidad de las herramientas de software utilizadas comúnmente para capturar, gestionar y procesar los datos dentro de un lapso de tiempo tolerable.
Algunos ejemplos de fuentes de Big Data incluyen web logs, sensores de redes, redes sociales, datos detallados capturados de redes de telecomunicaciones, observaciones astronómicas, vigilancia militar, registros médicos, archivos fotográficos y de video.