Lenovo ha presentado su nuevo servidor de inferencia de inteligencia artificial ThinkEdge SE100 en el Mobile World Congress.

En un comunicado, la empresa ha dicho que la oferta es el “primer servidor de inferencia de IA de nivel básico en el mercado”, diseñado para hacer que Edge AI sea accesible y asequible.

El SE100 forma parte de la familia de nuevos servidores ThinkSystem V4 de Lenovo y admite implementaciones de nube híbrida y aprendizaje automático para tareas de IA como detección de objetos y reconocimiento de texto.

Equipado con procesadores Intel Xeon 6, el servidor también contiene la nueva tecnología de refrigeración líquida Neptune de la compañía, Neptune Core Compute Complex Module, que, según Lenovo, admite cargas de trabajo más rápidas con velocidades de ventilador reducidas, lo que resulta en operaciones más silenciosas y menor consumo de energía.

La compañía ha informado además que la tecnología ha sido diseñada específicamente para reducir los requisitos de flujo de aire, al mismo tiempo que reduce la velocidad del ventilador y el consumo de energía, y mantiene las piezas más frías para extender la salud y la vida útil del sistema.

El SE100 también es un 85 por ciento más pequeño que un servidor 1U estándar, lo que lo convierte en la “solución Edge preparada para IA más compacta del mercado” y también ha sido diseñado para permanecer por debajo de los 140 W, incluso en su configuración más completa equipada con GPU.

“Lenovo se compromete a llevar la innovación impulsada por IA a todos con una innovación continua que simplifica la implementación y acelera el tiempo de obtención de resultados”, afirmó Scott Tease, vicepresidente del grupo de soluciones de infraestructura de Lenovo, productos. “Lenovo ThinkEdge SE100 es una plataforma de alto rendimiento y baja latencia para la inferencia. Su diseño compacto y rentable se adapta fácilmente a diversas necesidades comerciales en una amplia gama de industrias. Este sistema único y orientado a un propósito se adapta a cualquier entorno, escalando sin problemas desde un dispositivo base hasta un sistema optimizado para GPU que permite una inferencia fácil de implementar y de bajo costo en el Edge”.