{"id":15318,"date":"2025-06-06T09:24:04","date_gmt":"2025-06-06T14:24:04","guid":{"rendered":"https:\/\/syspertec.com.co\/web\/?p=15318"},"modified":"2025-06-06T09:24:21","modified_gmt":"2025-06-06T14:24:21","slug":"cualquier-modelo-acelerador-o-nube-desbloqueando-la-ia-empresarial-con-innovacion-open-source","status":"publish","type":"post","link":"https:\/\/syspertec.com.co\/web\/cualquier-modelo-acelerador-o-nube-desbloqueando-la-ia-empresarial-con-innovacion-open-source\/","title":{"rendered":"Cualquier modelo, acelerador o nube: desbloqueando la IA empresarial con innovaci\u00f3n open source"},"content":{"rendered":"\n<p class=\"\"><em>Por: Chris Wright, director de tecnolog\u00eda y vicepresidente s\u00e9nior, Ingeniero Global, Red Hat<\/em><\/p>\n\n\n\n<p class=\"\">Mayo de 2025 &#8211; \u201cCualquier carga de trabajo, cualquier aplicaci\u00f3n, en cualquier lugar\u201d fue el mantra del Red Hat Summit 2023. Es cierto que, en los \u00faltimos dos a\u00f1os, hemos visto algunos cambios en TI. Pero la visi\u00f3n de Red Hat no ha cambiado, ha evolucionado.<\/p>\n\n\n\n<p class=\"\"><strong>\u201cCualquier modelo, acelerador o nube\u201d.<\/strong><\/p>\n\n\n\n<p class=\"\">Ese es el mensaje de la nube h\u00edbrida para la era de la IA. Y la mejor parte es que, al igual que la \u201cantigua\u201d nube h\u00edbrida, la innovaci\u00f3n open source es la que impulsa todo. En el Red Hat Summit, mostramos c\u00f3mo los ecosistemas de IA estructurados en torno al open source y a modelos abiertos pueden generar nuevas opciones para las empresas. La apertura trae consigo la posibilidad de elegir y esta libertad da paso a una mayor flexibilidad: desde el modelo que mejor responde a las necesidades de la empresa hasta el acelerador subyacente y el lugar donde se ejecutar\u00e1 efectivamente la carga de trabajo. Las estrategias de IA exitosas seguir\u00e1n a los datos, dondequiera que se encuentren en la nube h\u00edbrida.<\/p>\n\n\n\n<p class=\"\">\u00bfY qu\u00e9 impulsa a la nube h\u00edbrida? El open source.<\/p>\n\n\n\n<p class=\"\"><a><\/a><strong>La inferencia potencia la IA<\/strong><\/p>\n\n\n\n<p class=\"\">En mi opini\u00f3n, debemos empezar a mirar m\u00e1s all\u00e1 de los modelos. S\u00ed, es verdad que los modelos son muy importantes para las estrategias de IA. Pero sin la inferencia, la faceta &#8220;pr\u00e1ctica&#8221; de la IA, los modelos son simplemente conjuntos de datos que no &#8220;hacen&#8221; nada. La inferencia se refiere a la rapidez con la que un modelo responde a la informaci\u00f3n ingresada por el usuario y a la eficiencia con la que se pueden tomar decisiones en recursos inform\u00e1ticos acelerados. En \u00faltima instancia, las respuestas lentas y la poca eficiencia cuestan dinero y generan desconfianza en el cliente.<\/p>\n\n\n\n<p class=\"\">Es por eso que me entusiasma mucho que Red Hat priorice la inferencia en nuestro trabajo con la IA open source, comenzando con el lanzamiento de <a href=\"https:\/\/www.redhat.com\/en\/about\/press-releases\/red-hat-unlocks-generative-ai-any-model-and-any-accelerator-across-hybrid-cloud-red-hat-ai-inference-server\">Red Hat AI Inference Server<\/a>. Esta soluci\u00f3n, que surge a partir del proyecto open source vLLM l\u00edder y est\u00e1 optimizada con tecnolog\u00edas Neural Magic, ofrece a las implementaciones de IA un servidor de inferencia con soporte, ciclo de vida completo y listo para producci\u00f3n. Lo mejor de todo es que puede rastrear tus datos dondequiera que se encuentren, ya que la soluci\u00f3n funcionar\u00e1 con cualquier plataforma de Linux, cualquier distribuci\u00f3n de Kubernetes, Red Hat o de cualquier otro modo.<\/p>\n\n\n\n<p class=\"\"><a><\/a><strong>\u00bfQu\u00e9 es mejor que la IA empresarial? La IA empresarial a gran escala<\/strong><\/p>\n\n\n\n<p class=\"\">La aplicaci\u00f3n estrella de la TI empresarial no es una \u00fanica carga de trabajo unificada ni un nuevo servicio en la nube: es la capacidad de escalar de forma r\u00e1pida y eficiente. Esto tambi\u00e9n se aplica a la IA. Sin embargo, la IA presenta una particularidad: los recursos inform\u00e1ticos acelerados que sustentan las cargas de trabajo de IA tambi\u00e9n deben escalarse. Esta no es una tarea f\u00e1cil, en vista de los gastos y las habilidades necesarias para implementar este hardware en la forma debida.<\/p>\n\n\n\n<p class=\"\">Lo que necesitamos no es solo la capacidad de escalar la IA, sino tambi\u00e9n de distribuir cargas de trabajo masivas de IA entre m\u00faltiples cl\u00fasteres de computaci\u00f3n acelerada. Esto se ve agravado por el escalado del tiempo de inferencia que requieren los modelos de razonamiento y la IA ag\u00e9ntica. Al compartir la carga, se pueden reducir los problemas de rendimiento, mejorar la eficiencia y, en \u00faltima instancia, la experiencia del usuario. Con el <a href=\"https:\/\/www.redhat.com\/en\/about\/press-releases\/red-hat-launches-llm-d-community-powering-distributed-gen-ai-inference-scale\">proyecto llm-d<\/a> de c\u00f3digo abierto, Red Hat ha tomado medidas para hacer frente a este problema.<\/p>\n\n\n\n<p class=\"\">El proyecto llm-d, dirigido por Red Hat y respaldado por l\u00edderes del sector de la IA en aceleraci\u00f3n de hardware, desarrollo de modelos y cloud computing, combina el poder comprobado de la orquestaci\u00f3n de Kubernetes con vLLM, uniendo dos referentes del open source para responder a una necesidad muy real. Junto con tecnolog\u00edas como el enrutamiento de redes con IA y la descarga de cach\u00e9 KV, entre otras, llm-d descentraliza y democratiza la inferencia de IA y, de ese modo, ayuda a las empresas a optimizar sus recursos inform\u00e1ticos y disponer de cargas de trabajo de IA m\u00e1s efectivas y de menor costo.<\/p>\n\n\n\n<p class=\"\"><a><\/a><strong>Abierto a lo que se viene en IA, no solo al c\u00f3digo<\/strong><\/p>\n\n\n\n<p class=\"\">Llm-d y vLLM, incluidos en Red Hat AI Inference Server, son tecnolog\u00edas open source preparadas para responder a los desaf\u00edos de la IA empresarial de hoy. Sin embargo, las comunidades de desarrollo no se limitan a analizar lo que se necesita hacer ahora. Las tecnolog\u00edas de IA tienen una forma particular de acortar los plazos: el v\u00e9rtigo de la innovaci\u00f3n implica que algo que se cre\u00eda que no plantear\u00eda un desaf\u00edo en a\u00f1os, de repente debe afrontarse de lleno.<\/p>\n\n\n\n<p class=\"\">Por ese motivo es que Red Hat est\u00e1 destinando recursos a la fase de desarrollo inicial de Llama Stack, el proyecto liderado por Meta que ofrece componentes b\u00e1sicos y API estandarizados para los ciclos de vida de las aplicaciones de IA generativa. Adem\u00e1s, Llama Stack es ideal para crear aplicaciones de IA ag\u00e9nticas, que representan una nueva evoluci\u00f3n de las potentes cargas de trabajo de IA generativa que vemos hoy en d\u00eda. M\u00e1s all\u00e1 de su desarrollo inicial, Llama Stack est\u00e1 disponible como versi\u00f3n preliminar para desarrolladores dentro de <a href=\"https:\/\/www.redhat.com\/es\/about\/press-releases\/red-hat-optimizes-red-hat-ai-speed-enterprise-ai-deployments-across-models-ai-accelerators-and-clouds\">Red Hat AI<\/a>, para aquellas empresas que hoy quieran comprometerse con el futuro.<\/p>\n\n\n\n<p class=\"\">En lo que respecta a los agentes de IA, a\u00fan no contamos con un protocolo com\u00fan para el modo en que otras aplicaciones les proporcionan contexto e informaci\u00f3n. Aqu\u00ed es donde entra en juego el protocolo de contexto de modelo (MCP). Desarrollado y convertido en open source por Anthropic a fines de 2024, se trata de un protocolo estandarizado para las interacciones entre agente y aplicaci\u00f3n, similar a los protocolos cliente-servidor de la inform\u00e1tica tradicional. Pero lo m\u00e1s importante es que las actuales aplicaciones pueden, de improviso, valerse de la IA sin necesidad de una reimplementaci\u00f3n a gran escala. Esto es important\u00edsimo y no ser\u00eda posible si no fuera por el poder del open source. Al igual que Llama Stack, MCP est\u00e1 disponible como versi\u00f3n preliminar para desarrolladores en la plataforma de Red Hat AI.<\/p>\n\n\n\n<p class=\"\">Los modelos propietarios de IA pueden haber logrado una ventaja inicial, pero no hay duda de que los ecosistemas abiertos los han superado, en especial en cuanto al software que sustenta estos modelos de IA de pr\u00f3xima generaci\u00f3n. Gracias a vLLM y llm-d, junto con productos empresariales open source con seguridad reforzada, el futuro de la IA es prometedor, independientemente del modelo, el acelerador o la nube, y est\u00e1 impulsado por el open source y por Red Hat.<\/p>\n\n\n\n<p class=\"\"><strong>Redes Sociales:<\/strong><\/p>\n\n\n\n<p class=\"\">X: @redhatla&nbsp;&nbsp;&nbsp; IG: @redhatlatam&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; LinkedIn:&nbsp; Red-Hat&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; #RHSummit<\/p>\n\n\n\n<p class=\"\">&#8211;<\/p>\n\n\n\n<p class=\"\">Syspertec SAS<\/p>\n\n\n\n<p class=\"\">Agencia de Prensa y Relaciones P\u00fablicas<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Por: Chris Wright, director de tecnolog\u00eda y vicepresidente s\u00e9nior, Ingeniero Global, Red Hat Mayo de 2025 &#8211; \u201cCualquier carga de trabajo, cualquier aplicaci\u00f3n, en cualquier lugar\u201d fue el mantra del Red Hat Summit 2023. Es cierto que, en los \u00faltimos dos a\u00f1os, hemos visto algunos cambios en TI. Pero la visi\u00f3n de Red Hat no [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":15320,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"nf_dc_page":"","footnotes":""},"categories":[288],"tags":[195,119],"class_list":["post-15318","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-redhat","tag-syspertec","tag-tecnologia"],"jetpack_featured_media_url":"https:\/\/syspertec.com.co\/web\/wp-content\/uploads\/2025\/06\/Chris-Wright_Red-Hat_1.jpg","_links":{"self":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/15318","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/comments?post=15318"}],"version-history":[{"count":2,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/15318\/revisions"}],"predecessor-version":[{"id":15322,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/posts\/15318\/revisions\/15322"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/media\/15320"}],"wp:attachment":[{"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/media?parent=15318"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/categories?post=15318"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/syspertec.com.co\/web\/wp-json\/wp\/v2\/tags?post=15318"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}