{"id":55995,"date":"2024-12-06T02:52:09","date_gmt":"2024-12-06T02:52:09","guid":{"rendered":"http:\/\/lahora.mx\/?p=55995"},"modified":"2024-12-06T02:52:50","modified_gmt":"2024-12-06T02:52:50","slug":"166-paises-votan-en-la-onu-para-prohibir-los-robots-asesinos-con-ia","status":"publish","type":"post","link":"https:\/\/lahora.mx\/index.php\/2024\/12\/06\/166-paises-votan-en-la-onu-para-prohibir-los-robots-asesinos-con-ia\/","title":{"rendered":"166 pa\u00edses votan en la ONU para prohibir los robots asesinos con IA"},"content":{"rendered":"\n<p>La ONU argument\u00f3 que los robots asesinos con IA podr\u00edan desencadenar una carrera armament\u00edstica y agravar crisis humanitarias. Foto: Generada con IA.<br>El pasado 2 de diciembre, la Asamblea General de la ONU marc\u00f3 un hito en la regulaci\u00f3n de tecnolog\u00edas armament\u00edsticas al aprobar, con el respaldo de 166 pa\u00edses, una resoluci\u00f3n que busca prohibir los robots asesinos con inteligencia artificial (IA).<\/p>\n\n\n\n<p>Estas armas aut\u00f3nomas letales operan sin intervenci\u00f3n humana directa, lo que representa una creciente amenaza para la seguridad global y los derechos humanos.<\/p>\n\n\n\n<p>La resoluci\u00f3n establece la necesidad de un tratado internacional para prohibir su uso, argumentando que estas m\u00e1quinas podr\u00edan desencadenar una carrera armament\u00edstica y agravar crisis humanitarias.<\/p>\n\n\n\n<p>Sin embargo, no todos los pa\u00edses estuvieron de acuerdo: Bielorrusia, Corea del Norte y Rusia votaron en contra, mientras que 15 se abstuvieron, seg\u00fan Human Rights Watch (HRW).<br>El Secretario General de la ONU, Ant\u00f3nio Guterres, calific\u00f3 el uso de robots asesinos como \u00abpol\u00edticamente inaceptable y moralmente repugnante\u00bb.<\/p>\n\n\n\n<p>Guterres advirti\u00f3 que permitir que m\u00e1quinas decidan sobre la vida o la muerte podr\u00eda erosionar las normas del derecho internacional y provocar consecuencias devastadoras en conflictos armados.<\/p>\n\n\n\n<p>A pesar del amplio respaldo, la resoluci\u00f3n no es vinculante, lo que limita su alcance pr\u00e1ctico. Estados Unidos y otros pa\u00edses han expresado su oposici\u00f3n, argumentando que estas armas podr\u00edan ofrecer ventajas estrat\u00e9gicas en el futuro.<\/p>\n\n\n\n<p>La ONU organizar\u00e1 en 2024 una ronda de consultas en Nueva York para evaluar los riesgos de estas armas. Participar\u00e1n representantes de Estados miembros, organizaciones internacionales, la Cruz Roja y expertos de la comunidad cient\u00edfica.<\/p>\n\n\n\n<p>Mary Wareham, subdirectora de crisis de HRW, afirm\u00f3 que el principal desaf\u00edo ser\u00e1 negociar un tratado que proh\u00edba estas tecnolog\u00edas. Actualmente, pa\u00edses como Rusia y China lideran en el desarrollo de armas aut\u00f3nomas, terrestres, mar\u00edtimas y a\u00e9reas, dificultando la creaci\u00f3n de un consenso internacional.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 es un robot asesino?<br>Un robot asesino, conocido t\u00e9cnicamente como sistema de arma aut\u00f3noma letal (LAWS, por sus siglas en ingl\u00e9s), es un dispositivo militar que utiliza inteligencia artificial (IA) para seleccionar y atacar objetivos sin intervenci\u00f3n humana directa. Estos sistemas est\u00e1n dise\u00f1ados para tomar decisiones de vida o muerte de manera aut\u00f3noma, bas\u00e1ndose en algoritmos, sensores avanzados y an\u00e1lisis de datos en tiempo real.<\/p>\n\n\n\n<p>A diferencia de las armas controladas remotamente, como los drones, los robots asesinos operan de forma independiente una vez programados, lo que significa que pueden actuar sin recibir instrucciones humanas durante su despliegue. Estas armas pueden utilizarse en diversos entornos, incluidos conflictos terrestres, mar\u00edtimos y a\u00e9reos.<\/p>\n\n\n\n<p>Caracter\u00edsticas principales<br>Autonom\u00eda total: Seleccionan y atacan objetivos sin supervisi\u00f3n humana.<br>Uso de sensores: Incorporan tecnolog\u00edas avanzadas, como c\u00e1maras t\u00e9rmicas, radares y sistemas de reconocimiento facial.<br>Velocidad y precisi\u00f3n: Pueden procesar grandes cantidades de datos para ejecutar ataques con rapidez y exactitud.<\/p>\n\n\n\n<p>Organizaciones como Human Rights Watch (HRW) y el Comit\u00e9 Internacional de la Cruz Roja advierten que estos sistemas representan un desaf\u00edo \u00e9tico. Al eliminar el control humano significativo, podr\u00edan infringir las normas del derecho internacional humanitario, como la distinci\u00f3n entre combatientes y civiles General de la ONU, Ant\u00f3nio Guterres, los calific\u00f3 como \u00abmoralmente repugnantes\u00bb y destac\u00f3 el peligro de permitir que m\u00e1quinas decidan sobre la vida y la muerte sin supervisi\u00f3n humana.<\/p>\n\n\n\n<p>Actualmente,Estados Unidos, Rusia y China lideran el desarrollo de estas armas, generando un debate global sobre su regulaci\u00f3n. A pesar de sus posibles aplicaciones militares, el consenso internacional a\u00fan no ha establecido un marco legal vinculante para su uso.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La ONU argument\u00f3 que los robots asesinos con IA podr\u00edan desencadenar una carrera armament\u00edstica y agravar crisis humanitarias. Foto: Generada con IA.El pasado 2 de diciembre, la Asamblea General de la ONU marc\u00f3 un hito en la regulaci\u00f3n de tecnolog\u00edas armament\u00edsticas al aprobar, con el respaldo de 166 pa\u00edses, una resoluci\u00f3n que busca prohibir los [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":55997,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[7],"tags":[],"class_list":["post-55995","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-geek"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts\/55995","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/comments?post=55995"}],"version-history":[{"count":1,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts\/55995\/revisions"}],"predecessor-version":[{"id":55996,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts\/55995\/revisions\/55996"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/media\/55997"}],"wp:attachment":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/media?parent=55995"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/categories?post=55995"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/tags?post=55995"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}