{"id":75630,"date":"2026-01-27T01:07:16","date_gmt":"2026-01-27T01:07:16","guid":{"rendered":"https:\/\/lahora.mx\/?p=75630"},"modified":"2026-01-27T01:07:16","modified_gmt":"2026-01-27T01:07:16","slug":"microsoft-presenta-el-chip-de-ia-maia-200-y-lanza-software-para-recortar-la-ventaja-de-nvidia","status":"publish","type":"post","link":"https:\/\/lahora.mx\/index.php\/2026\/01\/27\/microsoft-presenta-el-chip-de-ia-maia-200-y-lanza-software-para-recortar-la-ventaja-de-nvidia\/","title":{"rendered":"Microsoft presenta el chip de IA Maia 200 y lanza software para recortar la ventaja de Nvidia"},"content":{"rendered":"\n<p>Microsoft present\u00f3 este lunes la segunda generaci\u00f3n de su chip interno de inteligencia artificial , el Maia 200 , junto con un paquete de herramientas de software que busca reducir la ventaja de Nvidia en el ecosistema para desarrolladores. Seg\u00fan la compa\u00f1\u00eda, el Maia 200 empezar\u00e1 a operar esta semana en un centro de datos en Iowa , con planos para desplegarse posteriormente en Arizona . Se trata de la evoluci\u00f3n del chip Maia anunciada en 2023.<\/p>\n\n\n\n<p>El movimiento llega en un contexto en el que grandes proveedores de nube \u2014 Microsoft , Google (Alphabet) y Amazon Web Services \u2014, habitualmente grandes clientes de Nvidia, est\u00e1n impulsando chips propios que compiten cada vez m\u00e1s con esa firma. En particular, Google ha reforzado la colaboraci\u00f3n con clientes relevantes de Nvidia, como Meta Platforms , para recortar brechas de software entre sus ofertas.<br>Junto con el nuevo hardware, Microsoft ofrecer\u00e1 herramientas para programar el Maia 200, entre ellas Triton , una soluci\u00f3n de c\u00f3digo abierto con contribuciones de OpenAI que ejecuta tareas comparables a CUDA , el software de Nvidia considerado por los analistas como su mayor ventaja competitiva.<\/p>\n\n\n\n<p>Al igual que los pr\u00f3ximos chips estrella de Nvidia, \u201cVera Rubin\u201d , el Maia 200 est\u00e1 fabricado por TSMC con tecnolog\u00eda de 3 nan\u00f3metros y emplea memoria de gran ancho de banda ; no obstante, utiliza una generaci\u00f3n anterior y m\u00e1s lenta que la prevista por Nvidia en sus lanzamientos venideros. Microsoft tambi\u00e9n incorpor\u00f3 en el Maia 200 una cantidad significativa de SRAM , un tipo de memoria que puede aportar ventajas de velocidad a chatbots y otros sistemas de IA al atender solicitudes de muchos usuarios en paralelo.<\/p>\n\n\n\n<p>En el panorama competitivo, Cerebras Systems \u2014que recientemente firm\u00f3 un acuerdo de 10.000 millones de d\u00f3lares con OpenAI para suministrar potencia de c\u00f3mputo\u2014 basa gran parte de su dise\u00f1o en ese enfoque de memoria, al igual que Groq , la startup cuya tecnolog\u00eda Nvidia licenci\u00f3 en un acuerdo reportado de 20.000 millones de d\u00f3lares .<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Microsoft present\u00f3 este lunes la segunda generaci\u00f3n de su chip interno de inteligencia artificial , el Maia 200 , junto con un paquete de herramientas de software que busca reducir la ventaja de Nvidia en el ecosistema para desarrolladores. Seg\u00fan la compa\u00f1\u00eda, el Maia 200 empezar\u00e1 a operar esta semana en un centro de datos [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":75631,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[7],"tags":[],"class_list":["post-75630","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-geek"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts\/75630","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/comments?post=75630"}],"version-history":[{"count":1,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts\/75630\/revisions"}],"predecessor-version":[{"id":75632,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts\/75630\/revisions\/75632"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/media\/75631"}],"wp:attachment":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/media?parent=75630"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/categories?post=75630"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/tags?post=75630"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}