Connect with us

Geek

166 países votan en la ONU para prohibir los robots asesinos con IA

Published

on

La ONU argumentó que los robots asesinos con IA podrían desencadenar una carrera armamentística y agravar crisis humanitarias. Foto: Generada con IA.
El pasado 2 de diciembre, la Asamblea General de la ONU marcó un hito en la regulación de tecnologías armamentísticas al aprobar, con el respaldo de 166 países, una resolución que busca prohibir los robots asesinos con inteligencia artificial (IA).

Estas armas autónomas letales operan sin intervención humana directa, lo que representa una creciente amenaza para la seguridad global y los derechos humanos.

La resolución establece la necesidad de un tratado internacional para prohibir su uso, argumentando que estas máquinas podrían desencadenar una carrera armamentística y agravar crisis humanitarias.

Sin embargo, no todos los países estuvieron de acuerdo: Bielorrusia, Corea del Norte y Rusia votaron en contra, mientras que 15 se abstuvieron, según Human Rights Watch (HRW).
El Secretario General de la ONU, António Guterres, calificó el uso de robots asesinos como «políticamente inaceptable y moralmente repugnante».

Guterres advirtió que permitir que máquinas decidan sobre la vida o la muerte podría erosionar las normas del derecho internacional y provocar consecuencias devastadoras en conflictos armados.

A pesar del amplio respaldo, la resolución no es vinculante, lo que limita su alcance práctico. Estados Unidos y otros países han expresado su oposición, argumentando que estas armas podrían ofrecer ventajas estratégicas en el futuro.

La ONU organizará en 2024 una ronda de consultas en Nueva York para evaluar los riesgos de estas armas. Participarán representantes de Estados miembros, organizaciones internacionales, la Cruz Roja y expertos de la comunidad científica.

Mary Wareham, subdirectora de crisis de HRW, afirmó que el principal desafío será negociar un tratado que prohíba estas tecnologías. Actualmente, países como Rusia y China lideran en el desarrollo de armas autónomas, terrestres, marítimas y aéreas, dificultando la creación de un consenso internacional.

¿Qué es un robot asesino?
Un robot asesino, conocido técnicamente como sistema de arma autónoma letal (LAWS, por sus siglas en inglés), es un dispositivo militar que utiliza inteligencia artificial (IA) para seleccionar y atacar objetivos sin intervención humana directa. Estos sistemas están diseñados para tomar decisiones de vida o muerte de manera autónoma, basándose en algoritmos, sensores avanzados y análisis de datos en tiempo real.

A diferencia de las armas controladas remotamente, como los drones, los robots asesinos operan de forma independiente una vez programados, lo que significa que pueden actuar sin recibir instrucciones humanas durante su despliegue. Estas armas pueden utilizarse en diversos entornos, incluidos conflictos terrestres, marítimos y aéreos.

Características principales
Autonomía total: Seleccionan y atacan objetivos sin supervisión humana.
Uso de sensores: Incorporan tecnologías avanzadas, como cámaras térmicas, radares y sistemas de reconocimiento facial.
Velocidad y precisión: Pueden procesar grandes cantidades de datos para ejecutar ataques con rapidez y exactitud.

Organizaciones como Human Rights Watch (HRW) y el Comité Internacional de la Cruz Roja advierten que estos sistemas representan un desafío ético. Al eliminar el control humano significativo, podrían infringir las normas del derecho internacional humanitario, como la distinción entre combatientes y civiles General de la ONU, António Guterres, los calificó como «moralmente repugnantes» y destacó el peligro de permitir que máquinas decidan sobre la vida y la muerte sin supervisión humana.

Actualmente,Estados Unidos, Rusia y China lideran el desarrollo de estas armas, generando un debate global sobre su regulación. A pesar de sus posibles aplicaciones militares, el consenso internacional aún no ha establecido un marco legal vinculante para su uso.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

Meta quiere que sigas activo después de la muerte

Published

on

By

l enfoque de Meta respecto a la inteligencia artificial es acelerar el desarrollo de sistemas cada vez más avanzados. Sin embargo, una reciente patente atribuida a la compañía ha abierto un debate global sobre los límites de la tecnología. Según un reporte de Business Insider, la firma habría registrado un modelo de LLM capaz de simular la actividad digital de una persona fallecida dentro de sus plataformas sociales.

La propuesta, aunque presentada como prueba de concepto, plantea interrogantes profundos sobre la identidad digital, el duelo en entornos virtuales y la suplantación algorítmica de la personalidad.

La patente, firmada por Andrew Bosworth, director de tecnología de Meta, fue concedida a finales de diciembre y describe un sistema de modelo de lenguaje de gran escala (LLM) entrenado con los datos históricos de un usuario.

El objetivo sería que el sistema pudiera…

Desempeñarse como un usuario inactivo en redes sociales, ya sea por ausencia prolongada o fallecimiento.
 Imitar patrones de escritura, preferencias de contenido, interacciones previas y comportamiento digital.
Mantener activa la cuenta para mitigar el impacto emocional en allegados digitales.
El modelo utilizaría publicaciones, comentarios, interacciones y hábitos de consumo para generar respuestas coherentes con el estilo del usuario original. Incluso se menciona la posibilidad —más teórica que operativa— de simular videollamadas o audios generados por IA.

Meta ha declarado que muchas de sus patentes responden a escenarios exploratorios y no necesariamente a productos en desarrollo.

Preservación y simulación de identidad
El documento gira en torno a una premisa central: cuando un usuario desaparece, su comunidad experimenta un vacío emocional y social. La IA podría “llenar” ese espacio creando una representación digital continua.

Este planteamiento conecta con un concepto emergente en el ámbito tecnológico: la preservación de la consciencia digital. Aunque todavía pertenece más al terreno especulativo que al científico, la idea ha sido recurrente en debates sobre transhumanismo y memoria digital.

No obstante, la diferencia crítica radica en que esta tecnología no preservaría consciencia real, sino un modelo estadístico entrenado sobre datos históricos, lo que abre la puerta a problemas de autenticidad y consentimiento póstumo.

Deepfakes, chatbots de duelo… la controversia
Desde el auge de la IA generativa en 2022, múltiples empresas han desarrollado chatbots basados en personas fallecidas como herramientas de acompañamiento en procesos de duelo. Paralelamente, la proliferación de deepfakes ha intensificado la polémica.

Un caso emblemático fue el de Zelda Williams, hija del actor Robin Williams, quien criticó públicamente la circulación de videos generados por IA que recreaban la imagen y voz de su padre. En un comunicado, calificó estas prácticas como irrespetuosas y pidió que cesara la difusión de dichos contenidos.

Este tipo de situaciones evidencia que la tecnología de recreación digital puede afectar no solo la memoria de la persona fallecida, sino también los derechos emocionales y morales de sus familiares.

Implicaciones éticas y legales
La patente de Meta activa múltiples frentes de análisis:

En el plano jurídico, surge la cuestión de los derechos digitales post mortem, aún poco regulados en muchas jurisdicciones. ¿Quién autoriza el uso de los datos de una persona fallecida? ¿Puede considerarse suplantación?

Desde la ética tecnológica, el problema central es la autenticidad. Un LLM no “es” la persona; solo predice texto basado en probabilidades estadísticas. Sin embargo, para los usuarios que interactúen con esa representación, la distinción puede volverse emocionalmente difusa.

También se plantea el riesgo de manipulación. Una cuenta que simule a un fallecido podría, en teoría, influir en decisiones emocionales o económicas de terceros.

Posicionamiento oficial de Meta
Meta ha sostenido que muchas patentes no se convierten en productos comerciales y que funcionan como investigaciones exploratorias. Hasta ahora, no existe anuncio formal de implementación de este sistema.

Sin embargo, el simple registro de la patente revela el interés corporativo en explorar la continuidad digital automatizada, una línea que podría redefinir la relación entre memoria, tecnología y redes sociales.

© 2025 Imagen – Excélsior. Todos los derechos reservados. El contenido de este sitio y de la edición impresa está protegido por la Ley Federal del Derecho de Autor. Prohibida la reproducción total o parcial sin autorización previa y por escrito. El material de terceros conserva sus propios derechos.

Continue Reading

Geek

Deja Celina Peña Guzmán el gabinete de Alejandro Armenta

Published

on

By

Celina Peña Guzmán se despidió del gobierno del estado de Puebla y deja la Secretaría de Desarrollo Tecnológico, Vinculación e Innovación de la Secretaría de Ciencia, Humanidades, Tecnología e Innovación (Secihti) para asumir la subsecretaría de Desarrollo Tecnológico, Vinculación e Innovación de la Secihti del Gobierno Federal.

Así lo dio a conocer la propia funcionaria durante la conferencia del gobernador, Alejandro Armenta Mier, en la Ciudad de México, al explicar que este viernes 13 de febrero será su último día en el gobierno del estado.

La funcionaria agradeció al Consejo Consultivo y los más de 500 investigadores que la acompañaron durante su gestión, así como al gobernador, Alejandro Armenta, por la oportunidad de colaborar en su gobierno.

El gobernador del estado, Alejandro Armenta Mier, agradeció a Celina Peña Guzmán por su trabajo y resaltó sus logros en la entidad al atraer proyectos importantes de la federación, como el automóvil eléctrico Olin

Continue Reading

Geek

Alerta por códigos QR falsos: cómo proteger tus datos al escanearlos

Published

on

By

Hoy en día, muchos comensales prefieren escanear un código QR para ver el menú en restaurantes, pero esta práctica puede convertirse en un riesgo. La Guardia Nacional emitió una alerta sobre códigos QR manipulados, diseñados para dirigir a los usuarios a sitios web fraudulentos que buscan robar información personal o instalar software malicioso.

Este tipo de estafa se conoce como quishing, una mezcla de “QR” y “phishing”, y no solo ocurre en restaurantes. También se han detectado fraudes en folletos publicitarios, mensajes de correo electrónico, redes sociales y servicios de paquetería, donde los delincuentes intentan engañar a los usuarios con enlaces que parecen legítimos.
El especialista en ciberseguridad Manuel Velázquez Mares explicó cómo operan: “Los estafadores colocan un código QR falso sobre el original en la mesa del restaurante mientras el personal se distrae”. Al escanearlo, el usuario es dirigido a un sitio web falso donde se puede solicitar información sensible, como contraseñas, datos bancarios o credenciales de acceso.

El FBI también alertó en 2025 sobre códigos QR enviados por correo electrónico o mensajes de texto, que aparentan información de seguimiento de paquetes, pero en realidad redirigen a sitios fraudulentos.

Según la firma Kaspersky, el quishing sigue cinco pasos:

Distribución: creación y colocación de códigos QR falsos en lugares públicos.

Engaño: los códigos aparentan ser legítimos, con ofertas o promociones.

Escaneo: la víctima analiza el QR con su celular.

Redirección: el código lleva a un sitio web fraudulento.

Robo de datos: se solicita información confidencial, como contraseñas o datos bancarios.

Para protegerse, la Guardia Nacional recomienda:

Revisar la URL antes de dar clic.

Pedir el menú impreso cuando sea posible.

Mantener el antivirus y aplicaciones actualizadas.

Kaspersky agrega otras precauciones:

Comprobar que no haya errores ortográficos en la página.

Verificar que el sitio tenga conexión HTTPS.

Evitar ingresar datos personales sin confirmar la fuente.

Activar autenticación en dos pasos en cuentas importantes.

“Estas acciones ayudan a evitar que los delincuentes accedan a información sensible y protegen tu seguridad digital”, concluyó la Guardia Nacional.

Continue Reading

Tendencia

Copyright © 2021 La Hora