HPCWIRE ENTREVISTA A BLUEARC GEOFF BARRALL - Calendae | Informática, Electrónica, CMS, Ciberseguridad

HPCWIRE ENTREVISTA A BLUEARC GEOFF BARRALL

Hola otra vez. Soy Simón Sánchez y esta vez te voy a contar sobre HPCWIRE ENTREVISTA A BLUEARC GEOFF BARRALL

por Alan Beck, editor en jefe

Geoff Barrall, vicepresidente ejecutivo y director de tecnología de BlueArc, habló con Calendae sobre la selección de LLNL de su empresa para un proyecto de clúster de supercomputación.

Calendae: 115 terabytes en un solo pedido es mucho almacenamiento. ¿Cómo utiliza LLNL el equipo BlueArc?

BARRALL: LLNL está utilizando varias docenas de sistemas de almacenamiento Si7500 de BlueArc como un objetivo de almacenamiento de objetos brillante para su proyecto de clúster de recursos de capacidad de computación institucional y multiprogramación (MCR). Este nuevo diseño de supercomputadora se utilizará para una variedad de cálculos y simulaciones complejos, muchos de los cuales están clasificados.

Mantener un grupo de servidores de este tamaño leyendo y escribiendo datos continuamente es complementario a tener una cantidad igualmente grande de almacenamiento adjunto, pero los sistemas NAS tradicionales en el mercado simplemente no tienen una arquitectura construida para un rendimiento masivo. BlueArc fue una elección natural para LLNL, ya que nuestra arquitectura de alto rendimiento puede escalar para satisfacer las necesidades de más de 700 servidores Dual Xeon, con capacidad de 6,7 Teraflops / s.

Calendae: ¿Qué tipo de requisitos tenía un proyecto como este?

BARRALL: Cuando LLNL examinó por primera vez el sistema de almacenamiento Si7500 el año pasado, se dieron cuenta de inmediato de los beneficios de nuestra arquitectura, ya que BlueArc es la única empresa que puede ofrecer aceleración de objetos de archivo basada en hardware. Este punto clave por sí solo nos abrió la puerta cuando este proyecto estuvo disponible.

Cuando MCR esté en plena producción a principios del próximo año, será una de las supercomputadoras más rápidas del mundo, y gran parte de esto será posible no solo por la potencia de nuestros servidores, sino también por la nueva arquitectura de almacenamiento y archivos Lustre que LLNL está construyendo. implementar. El sistema de archivos de código abierto Lustre para clústeres de Linux se ampliará a más de decenas de miles de servidores informáticos que acceden a petabytes de almacenamiento a velocidades de cientos de gigabytes por segundo y debería ser una tecnología interesante para vigilar en el espacio del supercomputación en los próximos años.

Calendae: Cuando se lanzó BlueArc el año pasado, hubo mucho entusiasmo sobre el aumento del rendimiento con respecto a otros proveedores de NAS. Un año después, ¿sus clientes ven el nivel de rendimiento que prometía?

BARRALL: Le sorprendería la frecuencia con la que surge esta pregunta. Así como usted y yo seríamos escépticos ante un fabricante de chips que afirme que podría ofrecer dos o incluso tres veces el rendimiento de los procesadores Pentium más rápidos de Intel, a muchos les parecía difícil creer que un servidor NAS pudiera alcanzar las velocidades que tenemos. probado una y otra vez, no solo en laboratorios, sino con aplicaciones reales de clientes.

Ahora tenemos clientes no solo en el espacio de la informática de alto rendimiento, sino en muchos otros mercados, incluidos los de posproducción, medios digitales, bioinformática y servicios financieros. Clientes como Lawrence Livermore, Cinesite, Mill Film y Escape Entertainment mostraron aumentos significativos en el rendimiento de su almacenamiento, y muchos volvieron a realizar pedidos posteriores a medida que aumentaban los requisitos de almacenamiento.

Validando aún más nuestras afirmaciones de rendimiento, muchas empresas de almacenamiento líderes ahora se refieren a BlueArc como el punto de referencia de alto rendimiento.

Calendae: ¿Cómo puede ayudar este tipo de rendimiento a laboratorios como LLNL?

BARRALL: La arquitectura de BlueArc ofrece a LLNL y a otros clientes de HPC un sistema de almacenamiento creado para acelerar los datos, no la computación. Este diferenciador clave les permite tomar la inmensa cantidad de datos producidos por sus clústeres de supercomputación y moverlos a su destino sin que los servidores NAS se interpongan en el camino, a un bajo precio.

Calendae: Me imagino que en un acuerdo de este tamaño, BlueArc tuvo una dura competencia. ¿Puede nombrar otros proveedores que buscaban adquirir este contrato?

BARRALL: Esta fue sin duda una de las ofertas de almacenamiento más emocionantes en las que hemos participado. Como puede imaginar, LLNL ya tiene sistemas de almacenamiento de la mayoría de los principales proveedores, incluido BlueArc. Anteriormente, LLNL realizó una serie de pruebas comparando ofertas de la competencia, y BlueArc mostró resultados de tres a cinco veces más altos que todos los demás competidores calificados. Fue esta ventaja de rendimiento comprobada, junto con la capacidad de BlueArc para ofrecer el protocolo de almacenamiento Lustre, lo que allanó el camino para LLNL como fuente exclusiva de nuestra solución para MCR.

Lawrence Livermore compró más de sesenta sistemas de almacenamiento Si7500 para lograr el enorme nivel de rendimiento de almacenamiento que estaban buscando. Para lograr niveles similares de rendimiento con los sistemas de la competencia, LLNL tendría que pedir hasta 180, posiblemente 300, otros sistemas, según el proveedor y la configuración. Esto habría obligado a un aumento espectacular de los costos iniciales y continuos.

Calendae: No puedes regalar 115 terabytes. ¿Cuánto costó este acuerdo de LLNL?

BARRALL: Si bien no revelamos los costos específicos de los pedidos, podemos decir que este fue un acuerdo multimillonario para BlueArc. Pudimos completar la asociación con LLNL gracias a nuestra solución completa, incluido el protocolo Lustre, el rendimiento general del sistema y el servicio. Creemos que esto habla muy bien de la calidad de toda nuestra oferta y nuestra propuesta de valor.

Sitio web: http://www.bluearc.com/company/e-barrall.shtml

=============================================== ==========

Deberías compartir en tu Facebook para que tus colegas lo disfruten

??? ? ? ???

Comparte