viernes , diciembre 14 2018
Home / Artículos / Software / La ley de Moore de los grandes volúmenes de datos

La ley de Moore de los grandes volúmenes de datos

En aplicaciones de prueba y medida, los ingenieros y científicos pueden recopilar grandes cantidades de datos cada segundo de cada día. Por cada segundo que el Large Hadron Collider en CERN ejecuta un experimento, el instrumento puede generar 40 terabytes de datos. Por cada 30 minutos que un motor de jet Boeing funciona, el sistema crea 10 terabytes de información de operaciones. Para un solo viaje a través del Océano Atlántico, un jet jumbo de cuatro motores puede crear 640 terabytes de datos. Multiplique eso por más de 25,000 vuelos cada día, y comprenda la enorme cantidad de datos que existen (Gantz, 2011). Eso son “Grandes Volúmenes de Datos.”
 

Obtener conclusiones precisas y significativas de tales cantidades de datos es un problema creciente, y el término Grandes Volúmenes de Datos describe el fenómeno. Grandes Volúmenes de Datos trae nuevos retos al análisis de datos, investigación, informes, y mantenimiento del sistema que deben ser solucionados para mantener el paso con el crecimiento exponencial de datos. La firma de investigación de tecnología IDC recientemente realizó un estudio acerca de datos digitales, que incluyeron archivos de medida, video, música, y más. Este estudio estima que la cantidad de datos disponible se está duplicando cada dos años. Tan solo en el 2011, 1.8 zettabytes (1E21 bytes) de datos fueron creados (Hadhazy, 2010). Para darse una idea del tamaño de ese número, considere esto: si los 7 billones de personas de la Tierra se unieran a Twitter y enviaran mensajes de manera continua por un siglo, generarían un zettabye de datos. Casi el doble de esa cantidad fue generada en 2011 (Rogers, 2011).
El hecho de que los datos se están duplicando cada dos años imita a una de las leyes más famosas de la electrónica: la ley de Moore. En 1965 Gordon Moore declaró que el número de transistores en un circuito integrado se duplicaría aproximadamente cada dos años y él esperaba que la tendencia continuaría “por lo menos 10 años.” Cuarenta y cinco años más tarde, la ley de Moore aún influencia muchos aspectos de IT y la electrónica. Como una consecuencia de la ley de Moore, la tecnología es más accesible y las últimas innovaciones ayudan a los ingenieros y científicos a capturar, analizar, y almacenar datos a tasas más altas que nunca. Considere que en 1995, 20 petabytes de espacio total en disco duro fueron fabricados. Hoy en día, Google procesa más de 25 petabytes de información cada día. De manera similar, el coste del espacio de almacenamiento para todos estos datos se ha reducido exponencialmente de $228/GB en 1998 a $.06/GB en el 2010. Cambios como estos combinados con los avances en la tecnología resultante de la ley de Moore, sin duda estimulan el fenómeno de Grandes Volúmenes de Datos y elevan la pregunta, “¿Cómo extraemos el significado de tal cantidad de datos?”
 

¿Cuál es el Valor de los Grandes Volúmenes de Datos?

 
Un valor intuitivo de más y más datos es simplemente que el significado estadístico se incrementa. Pequeños conjuntos de datos frecuentemente limitan la precisión de las conclusiones y predicciones. Considere una mina de oro donde solo el 20 por ciento del oro es visible. El 80 por ciento restante está en la suciedad donde no puede verlo. Se requiere de la minería para darse cuenta del valor total de los contenidos de la mina. Esto conduce al término “suciedad digital” en donde los datos digitalizados pueden tener un valor oculto. Por lo tanto, se necesita análisis y minería de datos para lograr nuevas percepciones que no se habían visto nunca.
 

¿Qué Significa Grandes Volúmenes de Datos para los Ingenieros y Científicos?

 
Las fuentes de Grandes Volúmenes de Datos son muchas. Sin embargo, la más interesante es el mundo físico. Esto es datos analógicos capturados y digitalizados por productos de NI. Por lo tanto, puede llamarlos “Grandes Volúmenes de Datos Analógicos” – derivados de medidas de vibración, señales de RF, temperatura, presión, sonido, imagen, luz, magnetismo, voltaje, y más. Ingenieros y científicos publican esta clase de datos de manera voluminosa, en una gran variedad de formas, y muchas veces a altas velocidades.
NI ayuda a que los clientes adquieran datos a tasas tan altas como terabytes por día. Los Grandes Volúmenes de Datos Analógicos son un reto ideal para los productos de adquisición de datos de NI tales como NI CompactDAQ, CompactRIO, y hardware PXI, y herramientas tales como el software de diseño de sistemas NI LabVIEW y NI DIAdem para organizar, administrar, analizar, y visualizar datos. Una ventaja clave de estos productos es la posibilidad de procesar datos en la fuente de captura, frecuentemente en tiempo real.
Usted puede cambiar este procesamiento de manera dinámica como necesite para cumplir con las diferentes necesidades analíticas. El hardware embebido programable tal como las FPGAs ofrecen procesamiento reconfigurable de alto rendimiento literalmente en los terminales de hardware del dispositivo de medida. Esto permite que los resultados de datos analíticos de los sistemas de IT dirijan un cambio en el tipo de procesamiento que ocurre en los productos de NI en la fuente de la captura de datos.
Las soluciones de Grandes Volúmenes de Datos Analógicos dependen fuertemente del equipo de IT tales como servidores, almacenamiento, y redes para mover datos, analizarlos, y archivarlos. Usted se enfrenta a grandes retos con la creación de soluciones extremo a extremo que requieren una relación más cercana entre DAQ y el equipo de IT.
Cómo líder en la industria, NI está en posición para ayudarle a enfrentar sus retos de Grandes Volúmenes de Datos al proporcionar soluciones que son amigables con IT y publican datos que están “listos para Grandes Volúmenes de Datos” para análisis dinámico o en reposo. Una cosa es cierta, NI está expandiendo continuamente sus capacidades en administración de datos, administración de sistemas, y colaboraciones con proveedores de IT para cumplir con el reto de Grandes Volúmenes de Datos.
Díganos cuáles son sus necesidades de Grandes Volúmenes de Datos en ni.com/newsletter/nsi2402.

[bar id=1088]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.



Podría interesarte

Sistema acústico de procesado en array basado en sensores MEMS de alta dimensionalidad para biometría y análisis de ruido y vibraciones

El Reto Creación de un marco de desarrollo que, partiendo de la adquisición simultánea y …

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies