Innovación

HPE lanza una arquitectura de computación diseñada para la era del Big Data

HPE presenta una arquitectura de computación para la era del Big Data

El programa de investigación The Machine culmina 60 años de innovación lanzando la mayor arquitectura de computación de memoria única en el mundo, destinada a la era del Big Data.

Los datos son el petróleo del siglo XXI y su crecimiento exponencial demanda la aparición de un nuevo paradigma adaptado a la era del Big Data. Con este propósito nace la mayor arquitectura de computación de memoria única en el mundo, presentada por HPE como último hito dentro del programa de investigación The Machine, el más extenso de la historia de la compañía.

Este modelo de computación lanzado esta semana por HPE tiene el objetivo de sentar un nuevo paradigma denominado Computación centrada en la Memoria (Memory-Driven Computing) que permita trabajar con volúmenes masivos propios del Big Data ya que como ha explicado Meg Whitman, CEO de Hewlett Packard Enterprise “los secretos de los grandes avances científicos y de la innovación industrial se esconden tras la gran cantidad de datos que creamos cada día”. 

¿Qué se espera del Big Data en 2017?

El modelo presentado se caracteriza por tener 160 terabytes (TB) de memoria, capaz de trabajar simultáneamente con un volumen de datos similar al que contendrían todos los libros de la Biblioteca del Congreso de Estados Unidos multiplicados por cinco, cifra equivalente a unos 160 millones de libros. Hasta el momento había sido imposible el almacenaje y la manipulación de conjuntos de datos de tal envergadura en un sistema de memoria única.

Esta nueva arquitectura de computación elaborada sobre los logros del programa de investigación The Machine incluye 160TB de memoria compartida repartida en 40 nodos físicos e interconectados, usando un protocolo de comunicaciones de alto rendimiento. Su sistema operativo (OS) está basado en Linux y optimizado para ejecutarse en un ThunderX2 , de segunda generación con doble Socket y buque insignia de Cavium, con capacidad de ser compatible con un sistema ARMv8-A, optimizado para cargas de trabajo sobre un Sistema desplegado en un solo chip.

Potencial del nuevo Memory Driven Computing

HPE cree que esta innovadora arquitectura de computación, que pone la memoria y no el procesador en el centro, tendría capacidad para crecer fácilmente a un sistema de memoria única del orden de los exabytes y, cuando se experimenten más avances a un nivel de memoria superior y prácticamente ilimitado (4.096 yottabytes), una medida equivalente a 1.000 veces el tamaño del universo digital al completo en la actualidad.

Esta cantidad de memoria sin precedentes permitirá encontrar respuestas y soluciones innovadoras en todos los aspectos de la sociedad. Por ejemplo, se podrá trabajar de forma simultánea con todos los historiales médicos digitales de cada persona en la tierra, cada dato de la red social Facebook, cada viaje de los vehículos autónomos de Google y toda la suma de datos de la exploración espacial.

“La arquitectura que hemos presentado puede aplicarse a todas las categorías de computación, desde dispositivos Intelligente Edge hasta supercomputadoras”, ha subrayado Mark Potter, CTO de HPE y Director de Hewlett Packard Labs. Eliminando las ineficiencias de los sistemas tradicionales, este Memory-Driven Computing reduce con creces el tiempo -de semanas a días, de días a horas y de minutos a segundos- para procesar problemas complejos. 

Sobre el autor de este artículo

Andrea Núñez-Torrón Stock

Licenciada en Periodismo y creadora de la revista Literaturbia. Entusiasta del cine, la tecnología, el arte y la literatura.