{"id":15331,"date":"2025-06-06T09:50:17","date_gmt":"2025-06-06T14:50:17","guid":{"rendered":"https:\/\/syspertec.com.co\/web\/?p=15331"},"modified":"2025-06-06T09:50:33","modified_gmt":"2025-06-06T14:50:33","slug":"red-hat-libera-la-ia-generativa-para-cualquier-modelo-y-acelerador-en-toda-la-nube-hibrida-con-red-hat-ai-inference-server","status":"publish","type":"post","link":"https:\/\/syspertec.com.co\/web\/red-hat-libera-la-ia-generativa-para-cualquier-modelo-y-acelerador-en-toda-la-nube-hibrida-con-red-hat-ai-inference-server\/","title":{"rendered":"Red Hat libera la IA generativa para cualquier modelo y acelerador en toda la nube h\u00edbrida con Red Hat AI Inference Server"},"content":{"rendered":"\n<p class=\"\"><em>Red Hat AI Inference Server, impulsado por vLLM y mejorado con tecnolog\u00edas Neural Magic, ofrece una inferencia de IA en la nube h\u00edbrida m\u00e1s veloz, de mayor rendimiento y a bajo costo.<\/em><\/p>\n\n\n\n<p class=\"\"><strong>BOSTON. RED HAT SUMMIT. 20 DE MAYO DE 2025. <\/strong>Red Hat, el proveedor l\u00edder mundial de soluciones open source, present\u00f3 el Red Hat AI Inference Server, que constituye un gran avance hacia la democratizaci\u00f3n de la IA generativa (gen AI) en la nube h\u00edbrida. Este servidor de inferencia para la empresa es una nueva oferta dentro de Red Hat AI, que nace a partir del potente proyecto comunitario vLLM y est\u00e1 optimizado por la integraci\u00f3n de las tecnolog\u00edas Neural Magic de Red Hat. Esto hace posible ejecutar cualquier modelo de IA generativa en cualquier acelerador de IA, en cualquier entorno de nube, m\u00e1s r\u00e1pido, con mayor eficiencia del acelerador y a bajo costo y ayudar a cumplir con la visi\u00f3n de Red Hat. Ya sea que se la implemente de forma aut\u00f3noma o como componente integrado de Red Hat Enterprise Linux AI (RHEL AI) y Red Hat OpenShift AI, esta plataforma revolucionaria permite a las organizaciones implementar y escalar la IA generativa en modo de producci\u00f3n con mayor confianza.<\/p>\n\n\n\n<p class=\"\">La inferencia es el motor de ejecuci\u00f3n cr\u00edtico de la IA, en el que los modelos preentrenados traducen los datos en un impacto tangible. Es el punto clave de la interacci\u00f3n con el usuario, que exige respuestas r\u00e1pidas y precisas. A medida que los modelos de IA generativa se vuelven cada vez m\u00e1s complejos y las implementaciones de producci\u00f3n aumentan, la inferencia puede convertirse en un importante cuello de botella que acapara recursos de hardware y amenaza con reducir la capacidad de respuesta e inflar los costos operativos. Para liberar el verdadero potencial de la IA a gran escala, los servidores de inferencia potentes ya no son un lujo, sino una necesidad, dado que sortean las complejidades subyacentes con mayor facilidad.<\/p>\n\n\n\n<p class=\"\">Red Hat hace frente a estos desaf\u00edos en forma directa con Red Hat AI Inference Server, una soluci\u00f3n de inferencia abierta dise\u00f1ada para lograr un alto rendimiento y equipada con herramientas l\u00edderes en compresi\u00f3n y optimizaci\u00f3n de modelos. Esta innovaci\u00f3n facilita que las organizaciones aprovechen al m\u00e1ximo el poder transformador de la IA generativa al ofrecer experiencias de usuario significativamente m\u00e1s eficaces y una libertad inigualable para elegir aceleradores de IA, modelos y entornos de TI.<\/p>\n\n\n\n<p class=\"\"><a><\/a><strong>vLLM: mayor innovaci\u00f3n en inferencia<\/strong><\/p>\n\n\n\n<p class=\"\">Red Hat AI Inference Server se basa en el proyecto vLLM, l\u00edder del sector, iniciado por UC Berkeley a mediados de 2023. Este proyecto comunitario ofrece una inferencia de IA generativa de alto rendimiento, admite contextos de entrada de gran tama\u00f1o, aceleraci\u00f3n de modelos de m\u00faltiples GPU y compatibilidad con el procesamiento continuo por lotes, entre muchas otras caracter\u00edsticas.<\/p>\n\n\n\n<p class=\"\">El amplio soporte de vLLM para modelos open source, sumado a la integraci\u00f3n de D\u00eda 0 de los modelos de vanguardia l\u00edderes, como DeepSeek, Gemma, Llama, Llama Nemotron, Mistal y Phi, entre otros, as\u00ed como modelos de razonamiento de nivel empresarial y de c\u00f3digo abierto como Llama Nemotron, lo posiciona como un est\u00e1ndar de facto para la innovaci\u00f3n futura en inferencia de IA. Los principales proveedores de modelos de vanguardia est\u00e1n adoptando los vLLM cada vez m\u00e1s, consolidando as\u00ed la funci\u00f3n clave que desempe\u00f1an en el futuro de la IA generativa.<\/p>\n\n\n\n<p class=\"\"><a><\/a><strong>Presentaci\u00f3n de Red Hat AI Inference Server<\/strong><\/p>\n\n\n\n<p class=\"\">Red Hat AI Inference Server re\u00fane la innovaci\u00f3n l\u00edder de los vLLM y la transforma en las capacidades de Red Hat AI Inference Server de grado empresarial. Red Hat AI Inference Server est\u00e1 disponible como una soluci\u00f3n en contenedores independiente o como parte de RHEL AI y Red Hat OpenShift AI.<\/p>\n\n\n\n<p class=\"\">Red Hat AI Inference Server proporciona a los usuarios una distribuci\u00f3n de vLLM compatible y m\u00e1s segura, adem\u00e1s de:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"\"><strong>Herramientas de compresi\u00f3n de LLM inteligentes<\/strong>, que reducen considerablemente el tama\u00f1o de los modelos de IA, tanto los de base como los ajustados, lo cual minimiza el consumo de recursos inform\u00e1ticos y preserva y mejora potencialmente la precisi\u00f3n del modelo.<\/li>\n\n\n\n<li class=\"\"><strong>Repositorio optimizado de modelos<\/strong>, alojado en Hugging Face, dentro de la organizaci\u00f3n de Red Hat AI, que ofrece acceso instant\u00e1neo a una colecci\u00f3n validada y optimizada de modelos de IA l\u00edderes listos para la implementaci\u00f3n de inferencia, lo que ayuda a duplicar o cuadruplicar la aceleraci\u00f3n de la eficiencia sin comprometer la precisi\u00f3n del modelo.<\/li>\n\n\n\n<li class=\"\"><strong>Soporte empresarial de Red Hat<\/strong> y d\u00e9cadas de experiencia en llevar proyectos comunitarios a entornos de producci\u00f3n.<\/li>\n\n\n\n<li class=\"\"><strong>Soporte de terceros<\/strong>, para una mayor flexibilidad de implementaci\u00f3n, lo que permite implementar Red Hat AI Inference Server en plataformas que no sean Red Hat Linux y Kubernetes de conformidad con la <a href=\"https:\/\/access.redhat.com\/third-party-software-support\">Pol\u00edtica de soporte de componentes de terceros de Red Hat.<\/a><\/li>\n<\/ul>\n\n\n\n<p class=\"\"><a><\/a><strong>La visi\u00f3n de Red Hat: Cualquier modelo, acelerador o nube<\/strong><\/p>\n\n\n\n<p class=\"\">El futuro de la IA debe definirse por oportunidades ilimitadas, sin silos de infraestructura que la restrinjan. Red Hat visualiza un horizonte en el que las empresas puedan implementar cualquier modelo, en cualquier acelerador y en cualquier nube, al mismo tiempo que ofrecen una experiencia de usuario excepcional y m\u00e1s uniforme sin costos exorbitantes. Para aprovechar al m\u00e1ximo el verdadero potencial de las inversiones en IA generativa, las empresas necesitan una plataforma de inferencia universal, un est\u00e1ndar para lograr una innovaci\u00f3n en IA m\u00e1s fluida y de alto rendimiento, tanto hoy como en el futuro.<\/p>\n\n\n\n<p class=\"\">As\u00ed como Red Hat fue precursora de la empresa abierta al transformar Linux en el cimiento de la TI moderna, hoy la compa\u00f1\u00eda est\u00e1 en condiciones de moldear el futuro de la inferencia de IA. El potencial de los vLLM radica en ser una pieza clave de la inferencia de la IA generativa estandarizada y Red Hat tiene el compromiso de construir un ecosistema pr\u00f3spero no solo en torno a la comunidad de vLLM, sino tambi\u00e9n de llm-d para la inferencia distribuida a gran escala. La visi\u00f3n es clara: independientemente del modelo de IA, el acelerador subyacente o el entorno de implementaci\u00f3n, Red Hat tiene como meta convertir a vLLM en el est\u00e1ndar abierto por excelencia para la inferencia en la nueva nube h\u00edbrida.<\/p>\n\n\n\n<p class=\"\"><strong>Red Hat Summit<\/strong><\/p>\n\n\n\n<p class=\"\">Participe de las presentaciones del Red Hat Summit para escuchar las \u00faltimas novedades de los ejecutivos, clientes y partners de Red Hat:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"\"><a href=\"https:\/\/events.experiences.redhat.com\/widget\/redhat\/sum25\/SessionCatalog2025\/session\/1737554802676001HJ8q\"><strong>Infraestructura moderna alineada a la IA empresarial<\/strong><\/a>: martes 20 de mayo de 8 a 10 horas (UTC -5) (<a href=\"https:\/\/youtube.com\/live\/Gr8jomztY2s?feature=share\">YouTube<\/a>)<\/li>\n\n\n\n<li class=\"\"><a href=\"https:\/\/events.experiences.redhat.com\/widget\/redhat\/sum25\/SessionCatalog2025\/session\/1737554802763001Hr0T\"><strong>La nube h\u00edbrida evoluciona para brindar innovaci\u00f3n empresarial<\/strong><\/a>: mi\u00e9rcoles 21 de mayo de 8 a 9:30 horas (UTC -5) (<a href=\"https:\/\/youtube.com\/live\/g0K0pJIKHBU?feature=share\">YouTube<\/a>)<\/li>\n<\/ul>\n\n\n\n<p class=\"\"><strong>Citas de apoyo<\/strong><\/p>\n\n\n\n<p class=\"\">Joe Fernandes, vicepresidente y gerente general, Unidad de Negocio IA, Red Hat<\/p>\n\n\n\n<p class=\"\"><em>\u201cLa inferencia es donde se cumple la verdadera promesa de la IA generativa, donde las interacciones del usuario encuentran respuestas r\u00e1pidas y precisas proporcionadas por un modelo determinado; pero esta promesa debe cumplirse de manera eficaz y a bajo costo. Red Hat AI Inference Server est\u00e1 dise\u00f1ado para satisfacer la demanda de inferencia de alto rendimiento y capacidad de respuesta a gran escala, al mismo tiempo que mantiene una demanda de recursos baja, proporciona una capa de inferencia com\u00fan compatible con cualquier modelo y se ejecuta en cualquier acelerador en cualquier entorno\u201d.<\/em><\/p>\n\n\n\n<p class=\"\"><strong>Recursos adicionales<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"\">M\u00e1s informaci\u00f3n acerca del <a href=\"http:\/\/red.ht\/I2Zk1e\">Red Hat Summit<\/a><\/li>\n\n\n\n<li class=\"\">Lea todos los anuncios de noticias de Red Hat de la semana en la <a href=\"https:\/\/red.ht\/3QrRUAh\">sala de noticias del Red Hat Summit<\/a><\/li>\n\n\n\n<li class=\"\">Siga a <a href=\"https:\/\/twitter.com\/redhatsummit\">@RedHatSummit<\/a> o a <a href=\"https:\/\/twitter.com\/hashtag\/rhsummit\">#RHSummit<\/a> por X para enterarse de actualizaciones espec\u00edficas de los eventos<\/li>\n<\/ul>\n\n\n\n<p class=\"\"><strong>Con\u00e9ctese con Red Hat<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li class=\"\">M\u00e1s informaci\u00f3n acerca de <a href=\"https:\/\/www.redhat.com\/es\">Red Hat<\/a><\/li>\n\n\n\n<li class=\"\">Escucha m\u00e1s sobre <a href=\"https:\/\/www.youtube.com\/watch?v=ZF8--wVaCuE\">Red Hat AI Inference Server de parte de los ejecutivos de Red Hat.<\/a><\/li>\n\n\n\n<li class=\"\">Obtenga m\u00e1s noticias en la <a href=\"https:\/\/www.redhat.com\/es\/about\/newsroom\">sala de noticias de Red Hat<\/a><\/li>\n\n\n\n<li class=\"\">Lea el <a href=\"https:\/\/www.redhat.com\/es\/blog\">blog de Red Hat<\/a><\/li>\n\n\n\n<li class=\"\">Siga a <a href=\"https:\/\/x.com\/redhatla\">Red Hat en X<\/a><\/li>\n\n\n\n<li class=\"\">Siga a <a href=\"https:\/\/www.instagram.com\/redhatlatam\/\">Red Hat en Instagram<\/a><\/li>\n\n\n\n<li class=\"\">Siga a <a href=\"https:\/\/red.ht\/4hHewrv\">Red Hat en LinkedIn<\/a><\/li>\n\n\n\n<li class=\"\">Mire los <a href=\"https:\/\/red.ht\/44B8oxL\">videos de Red Hat en YouTube<\/a><\/li>\n<\/ul>\n\n\n\n<p class=\"\"><strong>Acerca de Red Hat<\/strong><\/p>\n\n\n\n<p class=\"\"><a href=\"https:\/\/www.redhat.com\/es\">Red Hat<\/a> es la compa\u00f1\u00eda l\u00edder en tecnolog\u00eda de nube h\u00edbrida abierta que proporciona una base confiable, consistente y completa para una innovaci\u00f3n transformadora de TI y aplicaciones de IA. Su portafolio de tecnolog\u00edas de nube, desarrollo, inteligencia artificial, Linux y automatizaci\u00f3n hace posible la implementaci\u00f3n de cualquier aplicaci\u00f3n, en cualquier lugar, desde el centro de datos hasta el edge. Como proveedor l\u00edder mundial de soluciones de software de c\u00f3digo abierto empresarial, Red Hat invierte en ecosistemas abiertos y comunidades para resolver los desaf\u00edos de TI del ma\u00f1ana. Por medio de la colaboraci\u00f3n, Red Hat ayuda a clientes y socios a construir, conectar, automatizar, asegurar y gestionar sus entornos de TI, con el respaldo de servicios de consultor\u00eda, capacitaci\u00f3n y certificaci\u00f3n <a href=\"https:\/\/access.redhat.com\/recognition\">reconocidas mundialmente<\/a>.<\/p>\n\n\n\n<p class=\"\"><strong>Declaraciones de proyecci\u00f3n futura<\/strong><\/p>\n\n\n\n<p class=\"\">Con excepci\u00f3n de la informaci\u00f3n hist\u00f3rica y de los an\u00e1lisis que se contemplan en el presente, las declaraciones incluidas en este comunicado de prensa pueden constituir declaraciones de proyecci\u00f3n futura seg\u00fan el significado que le confiere la Private Securities Litigation Reform Act de 1995. Las declaraciones de proyecci\u00f3n futura se basan en las actuales presunciones de la compa\u00f1\u00eda en relaci\u00f3n con su desempe\u00f1o comercial y financiero. Estas declaraciones contemplan ciertos riesgos, incertidumbres y otros factores que podr\u00edan hacer que los resultados reales difieran sustancialmente. Las declaraciones de proyecci\u00f3n futura incluidas en este comunicado de prensa tienen validez \u00fanicamente en la fecha en la que se realizan. Salvo lo exigido por ley, la compa\u00f1\u00eda no asume ninguna obligaci\u00f3n de actualizar o modificar estas declaraciones de proyecci\u00f3n futura.<em>Red Hat, Red Hat Enterprise Linux, el logo de Red Hat y OpenShift son marcas comerciales o marcas comerciales registradas de Red Hat, Inc. o sus subsidiarias en los EE.UU. y en otros pa\u00edses. Linux\u00ae es la marca comercial registrada de Linus Torvalds en los EE. UU. y en otros pa\u00edses.<\/em><\/p>\n\n\n\n<p class=\"\">&#8211;<\/p>\n\n\n\n<p class=\"\">Syspertec SAS<\/p>\n\n\n\n<p class=\"\">Agencia de Prensa y Relaciones P\u00fablicas<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Red Hat AI Inference Server, impulsado por vLLM y mejorado con tecnolog\u00edas Neural Magic, ofrece una inferencia de IA en la nube h\u00edbrida m\u00e1s veloz, de mayor rendimiento y a bajo costo. BOSTON. RED HAT SUMMIT. 20 DE MAYO DE 2025. Red Hat, el proveedor l\u00edder mundial de soluciones open source, present\u00f3 el Red Hat [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":15333,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"nf_dc_page":"","footnotes":""},"categories":[243,288],"tags":[290,195,119],"class_list":["post-15331","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-kaspersky","category-redhat","tag-red-hat","tag-syspertec","tag-tecnologia"],"jetpack_featured_media_url":"https:\/\/syspertec.com.co\/web\/wp-content\/uploads\/2025\/06\/Red-Hat-AI-Inference-Server-1.jpg","_links":{"self":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/15331","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/comments?post=15331"}],"version-history":[{"count":1,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/15331\/revisions"}],"predecessor-version":[{"id":15334,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/15331\/revisions\/15334"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/media\/15333"}],"wp:attachment":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/media?parent=15331"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/categories?post=15331"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/tags?post=15331"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}