{"id":15309,"date":"2025-05-22T15:13:51","date_gmt":"2025-05-22T20:13:51","guid":{"rendered":"https:\/\/syspertec.com.co\/web\/?p=15309"},"modified":"2025-05-22T15:14:09","modified_gmt":"2025-05-22T20:14:09","slug":"red-hat-optimiza-red-hat-ai-para-acelerar-las-implementaciones-de-la-ia-empresarial-en-todos-los-modelos-aceleradores-de-ia-y-nubes","status":"publish","type":"post","link":"https:\/\/syspertec.com.co\/web\/red-hat-optimiza-red-hat-ai-para-acelerar-las-implementaciones-de-la-ia-empresarial-en-todos-los-modelos-aceleradores-de-ia-y-nubes\/","title":{"rendered":"Red Hat optimiza Red Hat AI para acelerar las implementaciones de la IA empresarial en todos los modelos, aceleradores de IA y nubes"},"content":{"rendered":"\n<p><em>Red Hat AI Inference Server, los modelos validados y la integraci\u00f3n de Llama Stack y el Protocolo de Contexto de Modelo ayudan a los usuarios a proporcionar aplicaciones y agentes de IA m\u00e1s uniformes y de mayor rendimiento<\/em><\/p>\n\n\n\n<p>Boston. Red Hat Summit. Mayo de 2025.<strong>&nbsp;Red Hat<\/strong>, el proveedor l\u00edder mundial de soluciones open source, contin\u00faa hoy ofreciendo a sus clientes alternativas de IA empresarial con la presentaci\u00f3n de Red Hat AI Inference Server, modelos validados para Red Hat AI y la integraci\u00f3n de las API de Llama Stack y el Protocolo de Contexto de Modelo (MCP), adem\u00e1s de importantes actualizaciones en su portfolio de Red Hat AI. A trav\u00e9s de estos desarrollos, Red Hat busca optimizar las capacidades que las empresas necesitan para acelerar la adopci\u00f3n de la IA, al mismo tiempo que ofrece a los clientes una mayor variedad y confianza en las implementaciones de producci\u00f3n de IA generativa (gen AI) en toda la nube h\u00edbrida.<\/p>\n\n\n\n<p>Seg\u00fan Forrester, el software de c\u00f3digo abierto ser\u00e1 la clave que impulse las iniciativas de IA empresarial.1&nbsp;Frente al panorama cada vez m\u00e1s complejo y din\u00e1mico de la IA, <a href=\"https:\/\/www.redhat.com\/en\/about\/press-releases\/red-hat-unlocks-generative-ai-any-model-and-any-accelerator-across-hybrid-cloud-red-hat-ai-inference-server\">Red Hat AI Inference Server<\/a>&nbsp;y los modelos validados de terceros proporcionan una inferencia de modelos eficiente y una colecci\u00f3n de modelos de IA comprobados con rendimiento optimizado en la plataforma Red Hat AI. Adem\u00e1s de la integraci\u00f3n de nuevas API para el desarrollo de agentes de IA generativa, como Llama Stack y MCP, Red Hat trabaja para hacer frente a la complejidad de las implementaciones, facilitando que los l\u00edderes de TI, cient\u00edficos de datos y desarrolladores aceleren las iniciativas de IA con mayor control y eficiencia.<\/p>\n\n\n\n<p><a><\/a><strong>Red Hat AI Inference Server para una inferencia eficiente en toda la nube h\u00edbrida<\/strong><\/p>\n\n\n\n<p>El portfolio de Red Hat AI ahora incluye el nuevo <strong>Red Hat AI Inference Server<\/strong>, que proporciona una inferencia m\u00e1s veloz, uniforme y de bajo costo a gran escala en entornos de nube h\u00edbrida. Esta importante incorporaci\u00f3n viene incluida en las \u00faltimas versiones de Red Hat OpenShift AI y Red Hat Enterprise Linux AI (RHEL AI) y tambi\u00e9n est\u00e1 disponible como una soluci\u00f3n aut\u00f3noma, lo que permite a las empresas implementar aplicaciones inteligentes con mayor eficiencia, flexibilidad y rendimiento.<\/p>\n\n\n\n<p><a><\/a><strong>Modelos probados y optimizados mediante modelos validados de terceros para Red Hat AI<\/strong><\/p>\n\n\n\n<p>Los <strong>modelos validados de terceros para Red Hat AI<\/strong>, disponibles en <a href=\"https:\/\/huggingface.co\/RedHatAI\">Hugging Face<\/a>, facilitan a las empresas la b\u00fasqueda de los modelos que mejor se adecuen a sus necesidades espec\u00edficas. Red Hat AI ofrece una colecci\u00f3n de modelos validados y gu\u00edas de implementaci\u00f3n para reforzar la confianza del cliente en el rendimiento del modelo y la facilidad de reproducci\u00f3n de los resultados. Red Hat tambi\u00e9n optimiza algunos modelos espec\u00edficos mediante t\u00e9cnicas de compresi\u00f3n de modelos para reducir su tama\u00f1o y aumentar la velocidad de inferencia, lo que ayuda a minimizar el consumo de recursos y los costos operativos. Adem\u00e1s, el proceso continuo de validaci\u00f3n de modelos ayuda a los clientes de Red Hat AI a mantenerse a la vanguardia de la innovaci\u00f3n en IA generativa optimizada.<\/p>\n\n\n\n<p><a><\/a><strong>API estandarizadas para el desarrollo de aplicaciones y agentes de IA con Llama Stack y MCP<\/strong><\/p>\n\n\n\n<p>Red Hat AI est\u00e1 integrando <strong>Llama Stack<\/strong>, inicialmente desarrollado por Meta, junto con <strong>MCP<\/strong>&nbsp;de Anthropic, para ofrecer a los usuarios API estandarizadas para la creaci\u00f3n e implementaci\u00f3n de aplicaciones y agentes de IA.&nbsp; Llama Stack, disponible en Red Hat AI como versi\u00f3n preliminar para desarrolladores, proporciona una API unificada para acceder a la inferencia con vLLM, la generaci\u00f3n aumentada por recuperaci\u00f3n (RAG), la evaluaci\u00f3n de modelos, barreras de seguridad y agentes en cualquier modelo de IA generativa. MCP permite integrar los modelos con herramientas externas al proporcionar una interfaz estandarizada que conecta las API, los plugins y las fuentes de datos en los flujos de trabajo de los agentes.<\/p>\n\n\n\n<p>La \u00faltima versi\u00f3n de <strong>Red Hat OpenShift AI (v2.20)<\/strong>&nbsp;incorpora mejoras adicionales para la creaci\u00f3n, el entrenamiento, la implementaci\u00f3n y el monitoreo de modelos de IA generativa e IA predictiva a gran escala. Estas mejoras incluyen las siguientes:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Cat\u00e1logo de modelos optimizados (en versi\u00f3n tecnol\u00f3gica preliminar)<\/strong>, que proporciona un f\u00e1cil acceso a modelos validados de Red Hat y de terceros, permite su implementaci\u00f3n en cl\u00fasteres de Red Hat OpenShift AI a trav\u00e9s de la interfaz de la consola web y gestiona su ciclo de vida por medio del registro integrado de Red Hat OpenShift AI.<\/li>\n\n\n\n<li><strong>Entrenamiento distribuido a trav\u00e9s del Operador de Entrenamiento de KubeFlow<\/strong>, que permite la programaci\u00f3n y la ejecuci\u00f3n del ajuste de modelos de InstructLab y otras cargas de trabajo de entrenamiento y ajuste basadas en PyTorch, distribuidas en m\u00faltiples nodos de Red Hat OpenShift y GPU, e incluye la aceleraci\u00f3n de redes RDMA distribuidas y el aprovechamiento optimizado de GPU para reducir costos.<\/li>\n\n\n\n<li><strong>Tienda de caracter\u00edsticas (en versi\u00f3n tecnol\u00f3gica preliminar)<\/strong>, basado en el proyecto Kubeflow Feast, es un repositorio centralizado para gestionar y suministrar datos tanto para el entrenamiento como para la inferencia de modelos, que agiliza los flujos de trabajo de datos para mejorar la precisi\u00f3n y la reutilizaci\u00f3n de modelos.<\/li>\n<\/ul>\n\n\n\n<p><strong>Red Hat Enterprise Linux AI 1.5<\/strong>, que aporta nuevas actualizaciones a la plataforma de modelos base de Red Hat para desarrollar, probar y ejecutar modelos de lenguaje de gran tama\u00f1o (LLM). Las caracter\u00edsticas clave de la versi\u00f3n 1.5 incluyen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Disponibilidad de Google Cloud Marketplace<\/strong>, que ampl\u00eda las opciones del cliente para ejecutar RHEL AI en entornos de nube p\u00fablica, junto con AWS y Azure, para ayudar a simplificar la implementaci\u00f3n y la gesti\u00f3n de cargas de trabajo de IA en Google Cloud.<\/li>\n\n\n\n<li><strong>Funciones multiling\u00fces optimizadas<\/strong> para espa\u00f1ol, alem\u00e1n, franc\u00e9s e italiano a trav\u00e9s de InstructLab, lo cual permite la personalizaci\u00f3n de modelos mediante scripts nativos y abre nuevas posibilidades para aplicaciones de IA multiling\u00fces.\u00a0 Los usuarios tambi\u00e9n pueden traer sus propios modelos maestro y alumno para lograr un mayor control de la personalizaci\u00f3n y la prueba de modelos para casos de uso e idiomas espec\u00edficos. En el futuro, se prev\u00e9 la incorporaci\u00f3n del japon\u00e9s, el hindi y el coreano.<\/li>\n<\/ul>\n\n\n\n<p>El servicio <strong>Red Hat AI InstructLab en IBM Cloud<\/strong>&nbsp;tambi\u00e9n goza de disponibilidad general.&nbsp; Este nuevo servicio en la nube agiliza a\u00fan m\u00e1s el proceso de personalizaci\u00f3n de modelos, ya que mejora la escalabilidad y la experiencia del usuario y permite a las empresas hacer uso de sus datos particulares con mayor facilidad y control.<\/p>\n\n\n\n<p><a><\/a><strong>La visi\u00f3n de Red Hat: cualquier modelo, acelerador o nube<\/strong><\/p>\n\n\n\n<p>El futuro de la IA debe definirse por oportunidades ilimitadas, sin silos de infraestructura que la restrinjan. Red Hat visualiza un horizonte en el que las empresas puedan implementar cualquier modelo, en cualquier acelerador y en cualquier nube, al mismo tiempo que ofrecen una experiencia de usuario excepcional y m\u00e1s uniforme sin costos exorbitantes. Para aprovechar al m\u00e1ximo el verdadero potencial de las inversiones en IA generativa, las empresas necesitan una plataforma de inferencia universal, un est\u00e1ndar para lograr una innovaci\u00f3n en IA m\u00e1s fluida y de alto rendimiento, tanto hoy como en el futuro.<\/p>\n\n\n\n<p><strong>Citas de apoyo<\/strong><\/p>\n\n\n\n<p><em>Joe Fernandes, vicepresidente y gerente general, Unidad de Negocio IA, Red Hat<\/em><\/p>\n\n\n\n<p>\u201cUna inferencia m\u00e1s r\u00e1pida y eficiente se perfila como el nuevo punto de decisi\u00f3n para la innovaci\u00f3n en IA generativa. Red Hat AI, con capacidades de inferencia optimizadas a trav\u00e9s de Red Hat AI Inference Server y una nueva colecci\u00f3n de modelos de terceros validados, ayuda a las empresas a implementar aplicaciones inteligentes donde las necesiten, en la forma en que las necesiten y con los componentes que mejor se adapten a sus requerimientos espec\u00edficos\u201d.<\/p>\n\n\n\n<p>1&nbsp;Fuente: \u201cNavigate The Open-Source AI Ecosystem In The Cloud\u201d, Forrester Research, Inc., febrero de 2025<\/p>\n\n\n\n<p><strong>Recursos adicionales<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>M\u00e1s informaci\u00f3n acerca de <a href=\"https:\/\/www.redhat.com\/es\/products\/ai\">Red Hat AI<\/a><\/li>\n\n\n\n<li>M\u00e1s informaci\u00f3n acerca de <a href=\"https:\/\/www.redhat.com\/en\/about\/press-releases\/red-hat-unlocks-generative-ai-any-model-and-any-accelerator-across-hybrid-cloud-red-hat-ai-inference-server\">Red Hat AI Inference Server<\/a><\/li>\n\n\n\n<li>M\u00e1s informaci\u00f3n acerca de <a href=\"https:\/\/www.redhat.com\/es\/products\/ai\/openshift-ai\">Red Hat OpenShift AI<\/a><\/li>\n\n\n\n<li>M\u00e1s informaci\u00f3n acerca de <a href=\"https:\/\/www.redhat.com\/es\/products\/ai\/enterprise-linux-ai\">Red Hat Enterprise Linux AI<\/a><\/li>\n\n\n\n<li>M\u00e1s informaci\u00f3n acerca de los <a href=\"http:\/\/www.redhat.com\/en\/products\/ai\/validated-models\">modelos validados para Red Hat AI<\/a><\/li>\n\n\n\n<li>M\u00e1s informaci\u00f3n acerca del <a href=\"http:\/\/red.ht\/I2Zk1e\">Red Hat Summit<\/a><\/li>\n\n\n\n<li>Lea todos los anuncios de noticias de Red Hat de la semana en la <a href=\"https:\/\/red.ht\/3QrRUAh\">sala de noticias del Red Hat Summit<\/a><\/li>\n\n\n\n<li>Siga a <a href=\"https:\/\/twitter.com\/redhatsummit\">@RedHatSummit<\/a> o a <a href=\"https:\/\/twitter.com\/hashtag\/rhsummit\">#RHSummit<\/a>\u00a0por X para enterarse de actualizaciones espec\u00edficas de los eventos<\/li>\n<\/ul>\n\n\n\n<p><strong>Con\u00e9ctese con Red Hat<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>M\u00e1s informaci\u00f3n acerca de <a href=\"https:\/\/www.redhat.com\/es\">Red Hat<\/a><\/li>\n\n\n\n<li>Obtenga m\u00e1s noticias en la <a href=\"https:\/\/www.redhat.com\/es\/about\/newsroom\">sala de noticias de Red Hat<\/a><\/li>\n\n\n\n<li>Lea el <a href=\"https:\/\/www.redhat.com\/es\/blog\">blog de Red Hat<\/a><\/li>\n\n\n\n<li>Siga a <a href=\"https:\/\/x.com\/redhatla\">Red Hat en X<\/a><\/li>\n\n\n\n<li>Siga a <a href=\"https:\/\/www.instagram.com\/redhatlatam\/\">Red Hat en Instagram<\/a><\/li>\n\n\n\n<li>Siga a <a href=\"https:\/\/red.ht\/4hHewrv\">Red Hat en LinkedIn<\/a><\/li>\n\n\n\n<li>Mire los <a href=\"https:\/\/red.ht\/44B8oxL\">videos de Red Hat en YouTube<\/a><\/li>\n<\/ul>\n\n\n\n<p><strong>Acerca de Red Hat<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/www.redhat.com\/es\">Red Hat<\/a> es la compa\u00f1\u00eda l\u00edder en tecnolog\u00eda de nube h\u00edbrida abierta que proporciona una base confiable, consistente y completa para una innovaci\u00f3n transformadora de TI y aplicaciones de IA. Su portafolio de tecnolog\u00edas de nube, desarrollo, inteligencia artificial, Linux y automatizaci\u00f3n hace posible la implementaci\u00f3n de cualquier aplicaci\u00f3n, en cualquier lugar, desde el centro de datos hasta el edge. Como proveedor l\u00edder mundial de soluciones de software de c\u00f3digo abierto empresarial, Red Hat invierte en ecosistemas abiertos y comunidades para resolver los desaf\u00edos de TI del ma\u00f1ana. Por medio de la colaboraci\u00f3n, Red Hat ayuda a clientes y socios a construir, conectar, automatizar, asegurar y gestionar sus entornos de TI, con el respaldo de servicios de consultor\u00eda, capacitaci\u00f3n y certificaci\u00f3n <a href=\"https:\/\/access.redhat.com\/recognition\">reconocidas mundialmente<\/a>.<\/p>\n\n\n\n<p><strong>Declaraciones de proyecci\u00f3n futura<\/strong><\/p>\n\n\n\n<p>Con excepci\u00f3n de la informaci\u00f3n hist\u00f3rica y de los an\u00e1lisis que se contemplan en el presente, las declaraciones incluidas en este comunicado de prensa pueden constituir declaraciones de proyecci\u00f3n futura seg\u00fan el significado que le confiere la <em>Private Securities Litigation Reform Act<\/em>&nbsp;de 1995. Las declaraciones de proyecci\u00f3n futura se basan en las actuales presunciones de la compa\u00f1\u00eda en relaci\u00f3n con su desempe\u00f1o comercial y financiero. Estas declaraciones contemplan ciertos riesgos, incertidumbres y otros factores que podr\u00edan hacer que los resultados reales difieran sustancialmente. Las declaraciones de proyecci\u00f3n futura incluidas en este comunicado de prensa tienen validez \u00fanicamente en la fecha en la que se realizan. Salvo lo exigido por ley, la compa\u00f1\u00eda no asume ninguna obligaci\u00f3n de actualizar o modificar estas declaraciones de proyecci\u00f3n futura.<\/p>\n\n\n\n<p><em>Red Hat, Red Hat Enterprise Linux, el logo de Red Hat y OpenShift son marcas comerciales o marcas comerciales registradas de Red Hat, Inc. o sus subsidiarias en los EE.UU. y en otros pa\u00edses. Linux\u00ae es la marca comercial registrada de Linus Torvalds en los EE. UU. y en otros pa\u00edses.<\/em><\/p>\n\n\n\n<p><strong>Redes Sociales:<\/strong><\/p>\n\n\n\n<p>X: @redhatla&nbsp;&nbsp;&nbsp; IG: @redhatlatam&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; LinkedIn:&nbsp; Red-Hat&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; #RHSummit<\/p>\n\n\n\n<p>&#8211;<\/p>\n\n\n\n<p>Syspertec SAS<\/p>\n\n\n\n<p>Agencia de Prensa y Relaciones P\u00fablicas<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Red Hat AI Inference Server, los modelos validados y la integraci\u00f3n de Llama Stack y el Protocolo de Contexto de Modelo ayudan a los usuarios a proporcionar aplicaciones y agentes de IA m\u00e1s uniformes y de mayor rendimiento Boston. Red Hat Summit. Mayo de 2025.&nbsp;Red Hat, el proveedor l\u00edder mundial de soluciones open source, contin\u00faa [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":15311,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[288],"tags":[195,119],"class_list":["post-15309","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-redhat","tag-syspertec","tag-tecnologia"],"jetpack_featured_media_url":"https:\/\/syspertec.com.co\/web\/wp-content\/uploads\/2025\/05\/Red-Hat-AI-PR-Summit-2025-ESP_2.jpg","_links":{"self":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/15309","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/comments?post=15309"}],"version-history":[{"count":2,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/15309\/revisions"}],"predecessor-version":[{"id":15313,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/15309\/revisions\/15313"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/media\/15311"}],"wp:attachment":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/media?parent=15309"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/categories?post=15309"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/tags?post=15309"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}