HACIA UN NUEVO ENFOQUE MODULAR PARA EL HARDWARE Y EL SOFTWARE EN INTELIGENCIA ARTIFICIAL
|
|
Inicio > Nuevos Productos > HACIA UN NUEVO ENFOQUE MODULAR PARA EL HARDWARE Y EL SOFTWARE EN INTELIGENCIA ARTIFICIAL
|
|
 |
|
Hacia un nuevo enfoque modular para el hardware y el software en Inteligencia Artificial
La creciente demanda de procesamiento de datos está comenzando a generar una necesidad de nuevo hardware y software para la Inteligencia Artificial (IA).
La IA, la red 5G y la informática de punta son las palabras de moda. Pero cada uno de esos temas, tomados individualmente o en conjunto, podría cambiar la forma en que las pequeñas empresas y las empresas industriales procesan sus datos.
“La inteligencia artificial está trasladando una gran parte del poder de procesamiento al límite y está tomando una gran cantidad de datos de los dispositivos vinculados al Internet de la Cosas (IoT, por sus siglas en inglés)”, dijo Steven Carlini, vicepresidente de Innovación y Centro de Datos de la compañía Schneider Electric en una entrevista. “Pero gran parte del procesamiento se está moviendo hacia al conocido como borde porque la gran cantidad de datos que debe compilarse es imposible de enviar de un lado a otro desde la nube”.
La dificultad para realizar una evaluación comparativa del procesamiento y el almacenamiento basados en la nube es otro factor que convence a algunas organizaciones para que inviertan en informática de punta o en centros de datos locales. “Tenemos algunos clientes que han alcanzado facturas de $500,000 dólares por mes”, dijo Matt Burr, vicepresidente y gerente general de la unidad FlashBlade de la compañía Pure Storage. “Algunas compañías están buscando traer algunas de sus cargas de trabajo de vuelta a las instalaciones”, agregó, subrayando que el péndulo no se balancea por completo en la dirección local.
Cuando se le preguntó cómo será la interacción entre el borde y la nube en el futuro cercano, Burr dijo: “Es demasiado pronto para saberlo realmente”. Por ahora, la mayoría de los clientes usan más un modelo de computación centralizado, ya sea en la nube o en un centro de datos. Pero por otro lado, los ejecutivos de la compañía están notando un aumento en la demanda de los clientes que desean implementar una poderosa tecnología informática en una gran cantidad de ubicaciones.
Brian Schwarz, vicepresidente de gestión de productos de Pure Storage, dijo: “Hemos hecho que los clientes nos llamen y nos pregunten: “¿Puedo poner su dispositivo matriz en mi plataforma petrolera en medio del océano? Es realmente importante que tenga datos del sensor para poder saber que la broca está funcionando bien en el fondo del océano. Y, por cierto, son demasiados datos, y están lejos de tierra en donde no puedo obtener una conexión de red realmente gruesa”. La compañía ha recibido solicitudes similares de clientes que desean instalar su hardware en prototipos de vehículos autónomos, camiones y aviones. La creciente variabilidad en los casos de uso genera una demanda de estrategias comunes para implementar la informática independientemente de la ubicación, pero la informática en el borde puede ser complicada.
No me empujes porque estoy cerca del borde
En primer lugar, uno de los principales atractivos de venta de la computación en la nube fue su potencial para ayudar a las organizaciones a ahorrar dinero, pero el potencial de la nube para soportar los datos en en la nube puede conducir a facturas inesperadamente grandes, como observó recientemente la compañía CloudTech. Si bien la computación en la nube está aquí para quedarse, la informática de punta promete ayudar a las organizaciones a evitar la dependencia excesiva en la nube.
Pero especialmente las organizaciones ávidas de datos con ambiciones avanzadas y de inteligencia artificial deben lidiar con la forma de enfriar y alimentar las computadoras de súper alta potencia implementadas localmente. “Por lo general, en un centro de datos cuando estás haciendo IA, es con una Unidad de Procesamiento Gráfico (GPU, por sus siglas en inglés), dijo Carlini. “Mover eso al límite es un gran desafío, y es algo en lo que estamos muy involucrados”. La pregunta sigue siendo: ¿Cómo desplegar tanta potencia computacional?
Una organización podría planear desplegar una docena de nuevos centros de datos en miniatura en el borde. “Necesitarán 15 kilovatios de energía y algún tipo de enfriamiento para eso”, dijo Carlini. En aras del contexto, AFCOM, la organización del centro de datos fundada en 1980 y la Asociación para la Gestión de Operaciones Informáticas, divide la densidad del centro de datos en categorías que van desde baja (4 kW por rack y menor) a 16 kW por rack en promedio o superior en el final extremo.
Las organizaciones en el extremo superior de ese espectro están gravitando hacia la refrigeración líquida en lugar de la refrigeración por aire, independientemente de si ese entorno se encuentra en un centro de datos tradicional o en un entorno periférico no convencional. “Estamos desarrollando prototipos para refrigeración líquida para aplicaciones de borde con inteligencia artificial, sólo específicamente para aplicaciones de Inteligencia Artificial con GPU”, dijo Carlini.
Además de los componentes básicos del hardware de IA en forma de procesadores, memoria y otras tecnologías, la virtualización es otro aspecto importante que tiene especial relevancia para el borde, dijo Scott Nelson, director de producto y vicepresidente de producto de Digi International. “Si voy a habilitar el cómputo perimetral, tengo que particionar. Tengo que asegurarme de que el cálculo no interfiera con mi propósito”, dijo. En sistemas en tiempo real, los hipervisores (monitor de maquina virtual) administran la sofisticada división entre la memoria y las funciones de cómputo. “Por ejemplo, si está ejecutando un software de análisis en un vehículo aéreo no tripulado que tiene el mismo procesador que ejecuta el piloto automático, debe tener cuidado de no estropear este último”, dijo Nelson.
Un enfoque de bloques de construcción emergente para la informática centralizada
En general, las crecientes demandas de procesamiento de datos están impulsando la demanda de hardware y software de IA estandarizados, especialmente en los entornos tradicionales de centros de datos y en la nube. A menudo, esta estandarización es un resultado de la necesidad. “La razón principal por la que las personas nos necesitan es cuando realmente se quedan sin energía”, dijo Carlini. “Esas organizaciones no pueden obtener más poder de la utilidad, pero quieren más tecnología informática”.
Las grandes compañías de Internet con operaciones de centros de datos en crecimiento también están ayudando a establecer mejores prácticas para otras compañías con demandas de Tecnología de la Información en expansión. “Los gigantes de Internet publican números de eficiencia simplemente locos. Nuestros clientes nos llaman y preguntan: “Bueno, ¿cómo llegaron a eso?”, Dijo Carlini.
La compañía Schneider Electric tiene diseños de referencia y herramientas digitales para ayudar a las empresas a modelar centros de datos. Dichos modelos proporcionan una idea de cuál será la eficiencia y disponibilidad de un centro de datos junto con el costo. La compañía también ofrece centros de datos prefabricados. “Aquí, garantizamos eficiencia, disponibilidad y costo porque los estamos construyendo en la fábricación”, dijo Carlini.
Del mismo modo, Pure Storage ofrece lo que llama “infraestructura preparada para IA”. “Es un entorno de aprendizaje automático/aprendizaje profundo en el que nos asociamos”, dijo Schwarz. La intención detrás de esto es permitir a las organizaciones construir una supercomputadora de IA basada en la experiencia de docenas de compañías que han implementado dicha tecnología anteriormente. “No tienes que aprender esto de las partículas base”, dijo. “Puede hacer que su personal de Inteligencia Artificial trabaje en la parte difícil, que podría ser entrenar un automóvil para reconocer los millones y millones de instancias que podría encontrar en el camino”.
Aunque el IoT como tendencia tecnológica ya no es novedoso, el interés paralelo con la IA y, más recientemente, con la 5G de una variedad de empresas e industrias está cambiando la cantidad de entidades que se acercan a la informática. “La pregunta es: ¿los vendedores dispares agregarán sus capacidades y las aprovecharán en una sociedad?”, Dijo Nelson. “¿Qué harán con estos bloques de construcción a medida que los desarrollen?”.
¿Cuánto de la IA dependerá de la red 5G?
LA red 5G puede estar en una etapa temprana de adopción en la actualidad, pero esta tecnología podría tener ramificaciones significativas para las organizaciones empresariales con ambiciones de IA o de borde, y podría servir como una plataforma para aplicaciones de IA.
“Hay discusiones sobre nodos 5G en cuadrículas de 50 metros cuadrados para obtener cobertura”, dijo Nelson. Aunque la infraestructura 5G tardará años en construirse, cuando se implemente, la red será ultradensa, al menos en la mayoría de las áreas geográficas con poblaciones importantes.
“Debido al ancho de banda y las capacidades de la 5G como red, cada uno de esos nodos tendrá, relativamente hablando, una cantidad increíble de cómputo”, dijo Nelson. Especialmente para vehículos autónomos, las dos tecnologías podrían converger para ayudar a respaldar la toma de decisiones en tiempo real. La superposición entre la IA y la 5G “es un tema cotidiano para el segmento del automóvil sin conductor, pero sigue siendo una parte relativamente pequeña del IoT en general”, dijo Nelson. “En este punto, diría que se habla más que la tracción con respecto a la convergencia IA-5G fuera de los vehículos autónomos”. Las empresas de telecomunicaciones que administran redes 5G podrán virtualizar esa capacidad informática con el tiempo. “Podrán implementar de manera efectiva lo que sería una arquitectura de servidor distribuido: una sala de datos distribuidos”, dijo Nelson.
Cuando los operadores tengan una red tan densa de procesamiento de velocidad relativamente alta, tendrán el potencial de distribuir y virtualizar esa potencia de cómputo. “Permitirá, efectivamente, otra nube”, explicó Nelson. “Realmente será una niebla”, agregó, refiriéndose al término cuyo significado es casi sinónimo de computación de vanguardia. “¿Qué es la niebla? Es una nube a ras de suelo. ¿Qué va a ser la red 5G? Va a ser lo mismo”. Sin embargo, no está claro cuánto tiempo llevará la construcción completa de una red informática distribuida, pero la red 5G colocará centros de datos de borde cerca de torres en las estaciones base o en las oficinas centrales tradicionales de telecomunicaciones. “Los operadores necesitarán estos centros de datos locales dentro de cada uno de estos grupos”, dijo Carlini. “La pregunta es quién desplegará esos centros de datos porque los operadores están gastando mucho dinero ahora en espectro”.
Una vez que el espectro 5G esté en funcionamiento, los operadores cambiarán para llenarlo con datos. “Una vez que hayan desplegado este capital, cambiarán a ingresos recurrentes mensuales”, dijo Nelson. “Dirán: estoy transfiriendo datos a través de mis tarjetas SIM, ¿qué más puedo hacer?”. Hasta la fecha, los operadores han tenido dificultades para arrebatar el mercado de la computación en la nube de Amazon, Microsoft y Google. Pero la 5G podría permitir que las empresas de telecomunicaciones ofrezcan informática de última generación, proporcionando un componente básico para las implementaciones locales de IoT. “Puede que no coincida con el lanzamiento de la 5G, pero alguien dirá: “Oye, si virtualizamos estos nodos juntos, entonces parece que tenemos una sala de datos completa en el extremo oeste de Manhattan. ¿Por qué no llamamos a eso la nube de Manhattan y vemos qué podemos hacer con ella?”, Dijo Nelson.
Si bien los escépticos denuncian que la red 5G está sobrevalorada, es demasiado pronto para decidir cuál puede ser su papel para las implementaciones del IoT. “Mire todos los datos del sensor en este nuevo mundo del IoT. Existe la creencia de que se conectará a través de la red 5G”, dijo Schwarz.
Cualquiera que sea el caso, el modelo de borde parece preparado para la aceleración en los próximos años, ya sea que se trate de procesamiento en una estación base o más cerca del punto de generación de datos. “Preferiría hacer todo centralmente si pudiera”, dijo Schwarz. “En realidad, es un modelo más limpio para cualquier tipo de industria o empresa para implementar. Pero ese enfoque a menudo no cumple con los requisitos comerciales en algún nivel. Y ahí es donde entras en esto: “Tienes que llevar las cosas al límite”. |
|
|
 |
|
|
|
|
|
|
|
|
|