Para Alex Bouzari de DDN, Big Data es la democratización de HPC

Hola de nuevo. En el teclado Simón Sánchez y esta vez te voy a hablar sobre Para Alex Bouzari de DDN, Big Data es la democratización de HPC

DataDirect Networks (DDN) es uno de los pocos proveedores de almacenamiento especializado que ha capeado la tormenta de la consolidación de la industria. La compañía ha logrado mantenerse independiente y enfocada en su negocio de HPC, mientras que otras como BlueArc, Engenio, XtremIO y Whamcloud han sido elegidas por compañías más grandes con objetivos comerciales más diversos. Recientemente, hablamos con el CEO de DDN, Alex Bouzari, para conocer su opinión sobre el abandono de la industria y otras tendencias que están remodelando el mercado del almacenamiento.

Alex Bouzari, director ejecutivo de DataDirect Networks

Calendae: Alex, todos hemos notado que el mercado del almacenamiento ha cambiado muy rápidamente en los últimos años; han surgido muchas tecnologías nuevas, especialmente en relación con los macrodatos. espacio de aplicación. ¿Cómo ha afectado esto a DDN?

Alex Bouzari: Tienes toda la razón. Los macrodatos están aquí ahora, aunque la interpretación de todos sobre lo que son es diferente. La forma en que miramos es que Big Data es simplemente la democratización de HPC. Básicamente es la capacidad de tratar, a gran escala y de forma distribuida, con grandes cantidades de contenido, que es de lo que se trata HPC. Es un avance muy positivo para los jugadores de HPC.

En lo que respecta a la consolidación en el sector del almacenamiento, nos hemos encontrado en esta interesante posición de no solo ser la empresa de almacenamiento privado más grande del mundo, sino que ahora también somos monitoreados por IDC, en las seis primeras listas que tienen. Nos ha dado más visibilidad en los entornos de los clientes, simplemente porque los CIO y los ejecutivos de TI que están analizando sus opciones para big data ahora nos están notando porque estamos en su radar.

La desventaja es que muchos de los grandes actores, EMC y NetApp, ahora hablan mucho sobre big data. Esto está creando una oportunidad para las personas que están considerando revisar su infraestructura de TI para buscar soluciones alternativas. Fue un avance muy positivo, la expansión del mercado direccionable, con la expansión del mercado de big data. Y la publicidad que los grandes ahora le están dando al big data, que, por cierto, creo que beneficiará a todas las personas en el espacio HPC: en textiles e interconexiones, procesadores y almacenamiento.

Calendae: Entonces, ¿qué tipo de nuevas plataformas y arquitecturas de almacenamiento cree que surgirán como resultado del espacio de aplicaciones de big data? ¿Cambiará el almacenamiento fundamentalmente de alguna manera?

Bouzari: Sí, creemos que cambiará. En el corto plazo, cambiará al agregar algunos complementos a la combinación, lo que hará que la capacidad de capturar, almacenar y procesar macrodatos sea más fácil, rápida y conveniente. A largo plazo, creemos que la arquitectura evolucionará.

La memoria de estado sólido está alcanzando precios que la hacen atractiva para algunas aplicaciones de big data y HPC. Nuestra oferta SFA 7700, que anunciaremos en la Supercomputing Conference, es una solución de almacenamiento híbrido que combina estado sólido y disco giratorio y lo hace para aplicaciones de big data. Proporciona un rendimiento significativamente mejor que una solución híbrida de nivel empresarial.

Depende de la velocidad de estado sólido, IOPS, ancho de banda de estado sólido, gran cantidad de ejes y el precio de los discos giratorios de bajo costo. Todo esto aplicado con unos algoritmos inteligentes que unen el estado sólido a los discos rotativos, da como resultado una plataforma apta para big data y cargas de trabajo tipo HPC. Así que adoptamos un enfoque arquitectónico diferente para resolver el problema de las soluciones de almacenamiento híbrido.

El otro aspecto es que con todos los desarrollos que están teniendo lugar en el mundo de los procesadores y la importante inversión que Intel está haciendo para permitir que HPC se mueva más rápido, en nuestra opinión, habrá un cambio a largo plazo en el software, que es el factor. permitiendo cargas de trabajo pesadas como big data y HPC. Y ese software brindará a las organizaciones la capacidad de capturar contenido de cualquier fuente, almacenarlo de la manera más conveniente posible, dentro del centro de datos o en la nube, procesarlo extremadamente rápido y ponerlo a disposición de los usuarios de manera distribuida.

Creemos que la naturaleza del software en relación con el almacenamiento, procesamiento y distribución de contenido cambiará fundamentalmente. El poder de procesamiento se está volviendo libre; el espacio de almacenamiento se está volviendo libre. Pero lo que no es gratuito es la capacidad de introducir contenido, procesarlo y eliminarlo. Esto todavía requiere grandes cantidades de infraestructura y software. Por lo tanto, creemos que la mercantilización del hardware, que se producirá en la próxima década, deberá ser habilitada por un software realmente inteligente que conecte las piezas.

Empezamos a movernos en esa dirección hace tres o cuatro años cuando comenzamos a incorporar sistemas de archivos en nuestra arquitectura de almacenamiento. Estamos dando un paso más al conectar el estado sólido con el disco. Y ahora estamos trabajando activamente en arquitecturas de próxima generación, dentro de tres, cinco, siete años, que realmente apuntan a resolver este problema de extremo a extremo donde el contenido puede estar en cualquier lugar y los usuarios necesitan contenido elaborado entregado en cualquier lugar.
Calendae: ¿Está pensando en introducirse en dispositivos llave en mano empaquetados con pilas de estilo Hadoop u otros paquetes de software de big data? ¿Ese tipo de integración es algo que le interesa a su empresa?

Bouzari: El SFA 7700, que es nuestro dispositivo híbrido que combina estado sólido y disco, combina una capa de administración para ofrecer a nuestros clientes algo que es plug and play, fácil de administrar y optimizado para sus cargas de trabajo de big data. Muestre a los usuarios lo que está sucediendo: puntos calientes, qué se usa en exceso, qué se usa en exceso, etc. También tiene mecanismos de autocorrección.

El mundo se mueve en la dirección de los electrodomésticos. En nuestro caso, comenzamos a seguir este camino cuando expandimos nuestra penetración en el mercado de HPC, por debajo del top 100 de supercomputadoras. En la última lista tenemos el 60 por ciento de esos mejores sistemas, ya que siempre nos hemos centrado en las necesidades de los clientes de alto nivel.

Pero lo que es digno de mención es que hemos aumentado en un 30% el número de clientes entre los 500 principales, por lo que ahora tenemos un total de 150 clientes para estos sistemas. Muchos de los que están por debajo de la marca 100 son clientes que buscan no solo los beneficios de una solución de almacenamiento de alto rendimiento para sus cargas de trabajo, sino también aquellas que se pueden implementar muy fácilmente, ya que no siempre tienen la experiencia. el presupuesto y el personal para hacer las cosas que hacen los adultos.

Creemos que dimensionar el dispositivo que los grandes han estado disfrutando durante bastante tiempo con DDN y ponerlo a disposición en la solución 7700 beneficiará enormemente a nuestros clientes en el espacio HPC, que es verdaderamente el núcleo de nuestro negocio.

Calendae: a medida que crea este tipo de dispositivos, parece que puede ofrecer algo que se aplica de manera más general a una amplia gama de dominios de aplicaciones. ¿Vas a concentrarte en HPC?

Bouzari: La forma en que pensamos sobre los macrodatos, ya sea la creación y distribución de contenido de Internet, las redes sociales, la seguridad digital, la genómica, el petróleo y el gas o los servicios financieros, estos mercados son realmente una extensión de la informática de alto rendimiento. Entonces, ¿nos estamos expandiendo a mercados adyacentes a HPC? Absolutamente.

En la actualidad, más del 50% de nuestros ingresos provienen de HPC «centrales» externas. Sin embargo, en términos de requisitos, la hoja de ruta tecnológica y en lo que están trabajando nuestros ingenieros tiene mucho que ver con HPC. Los atributos necesarios para hacer un buen trabajo fuera de la HPC básica realmente tienen que ver con cosas como la facilidad de uso, la facilidad de administración, el tamaño del dispositivo de la solución, la compatibilidad con las soluciones comerciales tradicionales y la optimización con algunos bases de datos de la empresa.

Pero, en esencia, en términos de la capacidad de importar una gran cantidad de contenido, almacenarlo de manera muy conveniente, procesarlo extremadamente rápido y ponerlo a disposición de los usuarios, ya sea un gran laboratorio gubernamental o una empresa en Wall Street, es muy, muy similar. .

La principal diferencia es que dentro de HPC tenemos el beneficio de tener científicos de cohetes, que saben todo y quieren jugar con una solución para optimizarla por sí mismos, mientras que en la base de clientes corporativos más grande, todavía quieren todas estas capacidades, pero las quieren. sea ​​fácil de administrar, compatible con enchufes y certificado para su entorno. Entonces lo hacemos. Pero la mayor parte de nuestro gasto en I + D se destina a HPC.

De hecho, hace un año iniciamos nuestra iniciativa de exaescala para desarrollar las tecnologías innovadoras necesarias para que ese nivel de procesamiento y almacenamiento se convierta en una realidad, una realidad rentable. Hemos realizado un esfuerzo de investigación y desarrollo de $ 100 millones para apoyar este trabajo.

Así que somos muy HPC de corazón. Da la casualidad de que HPC es un mercado mucho más grande y se llama de otra manera: big data.

Deberías compartir en una historia de tu Instagram para que tus amigos lo lean

??? ? ? ???

Comparte