Connect with us

Geek

166 países votan en la ONU para prohibir los robots asesinos con IA

Published

on

La ONU argumentó que los robots asesinos con IA podrían desencadenar una carrera armamentística y agravar crisis humanitarias. Foto: Generada con IA.
El pasado 2 de diciembre, la Asamblea General de la ONU marcó un hito en la regulación de tecnologías armamentísticas al aprobar, con el respaldo de 166 países, una resolución que busca prohibir los robots asesinos con inteligencia artificial (IA).

Estas armas autónomas letales operan sin intervención humana directa, lo que representa una creciente amenaza para la seguridad global y los derechos humanos.

La resolución establece la necesidad de un tratado internacional para prohibir su uso, argumentando que estas máquinas podrían desencadenar una carrera armamentística y agravar crisis humanitarias.

Sin embargo, no todos los países estuvieron de acuerdo: Bielorrusia, Corea del Norte y Rusia votaron en contra, mientras que 15 se abstuvieron, según Human Rights Watch (HRW).
El Secretario General de la ONU, António Guterres, calificó el uso de robots asesinos como «políticamente inaceptable y moralmente repugnante».

Guterres advirtió que permitir que máquinas decidan sobre la vida o la muerte podría erosionar las normas del derecho internacional y provocar consecuencias devastadoras en conflictos armados.

A pesar del amplio respaldo, la resolución no es vinculante, lo que limita su alcance práctico. Estados Unidos y otros países han expresado su oposición, argumentando que estas armas podrían ofrecer ventajas estratégicas en el futuro.

La ONU organizará en 2024 una ronda de consultas en Nueva York para evaluar los riesgos de estas armas. Participarán representantes de Estados miembros, organizaciones internacionales, la Cruz Roja y expertos de la comunidad científica.

Mary Wareham, subdirectora de crisis de HRW, afirmó que el principal desafío será negociar un tratado que prohíba estas tecnologías. Actualmente, países como Rusia y China lideran en el desarrollo de armas autónomas, terrestres, marítimas y aéreas, dificultando la creación de un consenso internacional.

¿Qué es un robot asesino?
Un robot asesino, conocido técnicamente como sistema de arma autónoma letal (LAWS, por sus siglas en inglés), es un dispositivo militar que utiliza inteligencia artificial (IA) para seleccionar y atacar objetivos sin intervención humana directa. Estos sistemas están diseñados para tomar decisiones de vida o muerte de manera autónoma, basándose en algoritmos, sensores avanzados y análisis de datos en tiempo real.

A diferencia de las armas controladas remotamente, como los drones, los robots asesinos operan de forma independiente una vez programados, lo que significa que pueden actuar sin recibir instrucciones humanas durante su despliegue. Estas armas pueden utilizarse en diversos entornos, incluidos conflictos terrestres, marítimos y aéreos.

Características principales
Autonomía total: Seleccionan y atacan objetivos sin supervisión humana.
Uso de sensores: Incorporan tecnologías avanzadas, como cámaras térmicas, radares y sistemas de reconocimiento facial.
Velocidad y precisión: Pueden procesar grandes cantidades de datos para ejecutar ataques con rapidez y exactitud.

Organizaciones como Human Rights Watch (HRW) y el Comité Internacional de la Cruz Roja advierten que estos sistemas representan un desafío ético. Al eliminar el control humano significativo, podrían infringir las normas del derecho internacional humanitario, como la distinción entre combatientes y civiles General de la ONU, António Guterres, los calificó como «moralmente repugnantes» y destacó el peligro de permitir que máquinas decidan sobre la vida y la muerte sin supervisión humana.

Actualmente,Estados Unidos, Rusia y China lideran el desarrollo de estas armas, generando un debate global sobre su regulación. A pesar de sus posibles aplicaciones militares, el consenso internacional aún no ha establecido un marco legal vinculante para su uso.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

La IA generativa impulsa la violencia

Published

on

By

La inteligencia artificial se ha convertido en una herramienta para ejercer violencia, particularmente contra las mujeres, y para resolver esta problemática es necesario una mayor educación y programar con equidad desde el diseño.

El estudio El espejismo de la inteligencia artificial, un reflejo incómodo con alto impacto en los jóvenes, elaborado por LLYC, identificó que los deepfakes son una de las aplicaciones más alarmantes de esta tecnología.

Las deepfakes son imágenes, audios o videos generados a través de inteligencia artificial que pueden usarse desde en efectos especiales para cine hasta para contenido falso.

Blanca Juana Gómez, directora de LLYC México, consideró que el fácil acceso a este tipo de herramientas permite la producción tanto masiva como anónima de contenido que puede dañar a las personas.

Muestra de ello es que, según el informe Perpetuando la misoginia con IA generativa de la Universidad de Zúrich, 98% de los videos deepfake son de carácter pornográfico y de éstos el 99% impacta a las mujeres.

«El famoso empoderamiento de la mujer no tiene que ser el debilitamiento de los hombres, eso sólo genera más violencia.” Blanca Juana Gómez Directora de LLYC México

Destaca el caso de un estudiante universitario en México que modificó 166 mil fotos de sus compañeras para convertirlas en material pornográfico y las vendió a través de Telegram.

Por lo anterior, en el estudio realizado por LLYC se encontró que 84% de las mujeres encuestadas teme que su imagen sea utilizada para crear deepfakes sexuales, un porcentaje mayor que la registrada por los hombres.

“Es real que la violencia está muy fuerte, que hay mucha y sofisticada”

Hombres más solos

A esto se añade que, de acuerdo con el reporte, los modelos de inteligencia artificial pueden incrementar la brecha de género y reforzar los estereotipos. Por ejemplo, los cinco modelos analizados asumen que los hombres son resilientes, invulnerables, capaces de liderar y muchas veces las respuestas son complacientes para validar sus puntos de vista.

Este fenómeno se complementa con otras tendencias como las tradwife, es decir, mujeres que se enfocan exclusivamente en el cuidado del hogar que refuerzan los roles de género.

“Esto lleva a los hombres a esquemas patriarcales que no les permiten fallar, ser vulnerables o ser emocionales. Pero, los hombres también quieren sentir, expresarse, paternar y el sistema no los deja, eso es una supresión emocional que genera violencia”, añadió la directora.

Esto último ha generado un crecimiento de movimientos como los incels, cuyos miembros han estado involucrados en varios episodios violentos alrededor del mundo. Gómez cree que debe seguir impulsándose una revolución feminista que busque la igualdad, impulsar una educación crítica con respecto al uso de los modelos de IA y, desde el lado tecnológico, programar con equidad desde el diseño y realizar auditorías.

Continue Reading

Geek

Crecen fraudes con criptomonedas en México ahora más sofisticados

Published

on

By

Los fraudes relacionados con criptomonedas siguen creciendo en México debido al uso de inteligencia artificial por parte de los delincuentes, por lo que es necesario que las empresas del sector y los usuarios tengan más cuidado para no convertirse en víctimas.

El reporte Panorama de la industria de Criptomonedas 2026, realizado por Sumsub, encontró que el porcentaje de fraudes en esta industria aún es bajo en comparación al total de las transacciones, ya que la tasa media de fraude global se mantuvo estable en 2.2% entre 2024 y 2025, sin embargo, los ataques se están volviendo más dirigidos y automatizados.


“Este reporte muestra que México, aunque tiene una tasa de intento de fraude 1.3% y por debajo del promedio global, está marcado por un riesgo que crece de manera exponencial y con técnicas mucho más sofisticadas”, reiteró la líder de alianzas en Sumsub América Latina, Mariana Heinau.

Al platicar con Excélsior detalló que los defraudadores no dependen de una sola técnica para atacar, y utilizan la inteligencia artificial para que sus campañas sean más certeras.
Por ejemplo, usan dicha tecnología para que la ingeniería social como los correos de phishing sean más difíciles de detectar, así como para generar identidades sintéticas o deepfakes que permitan vulnerar los sistemas de verificación de identidad.

De acuerdo con la experta, generar identidades sintéticas sirve para tener perfiles falsos dentro de las plataformas de criptomonedas y así realizar actividades delictivas, como puede ser lavado de dinero, mientras que las deepfakes permitirían tomar la cuenta de un usuario y robar sus activos.

Dicha sofisticación significó que 55% de las empresas encuestadas en el mundo experimentó fraude al menos una vez en 2025, a lo que se añade que 15% de las compañías contestaron que no saben si fueron víctimas.

Para Heinau, esto último demuestra que hay una brecha entre las capacidades de detección y la creciente sofisticación de los ataques.


Ante este escenario, 74% de las empresas del sector encuestadas en el mundo indicó que ya no está buscando un “crecimiento a toda costa”, ahora prioriza la precisión en la verificación sobre la velocidad de incorporación de nuevos usuarios. De ahí que más de 50% de los sondeados está adoptando plataformas de detección de fraudes basadas en inteligencia artificial, así como en análisis y monitoreo avanzado de fraudes.

La líder de alianzas destacó que Sumsub actualmente cuenta con plataformas para el análisis de comportamiento del usuario, lo cual permite entender cómo actúa la persona dentro de la plataforma y detectar actividades sospechosas. Esto se complementa con una plataforma que usa inteligencia artificial para identificar identidades sintéticas y hacer un monitoreo transaccional para saber hacia dónde se envían los activos.

Esto último es clave porque las autoridades de países como Argentina, Chile e incluso México están analizando implementar la Regla de Viaje en las plataformas de criptomonedas, es decir, compartir datos básicos de quién envía y recibe fondos con el fin de prevenir delitos de lavado de dinero.

Continue Reading

Geek

Ciberataques en México dejan secuelas a largo plazo, alerta Silent4Business

Published

on

By

Los hackeos a dependencias públicas en México, ocurridos a principios de 2026, no solo expusieron información sensible, también abrieron un escenario de riesgo prolongado para la ciudadanía. Al respecto, Layla Delgadillo, CEO de Silent4Business, advirtió que los datos sustraídos pueden traducirse en “meses o años de intentos de fraude” contra miles de personas.

Para la firma especializada en ciberseguridad, estos hechos evidencian un problema de fondo. Delgadillo señaló que “la ciberseguridad sigue tratándose como un proyecto reactivo y no como una capacidad permanente de Estado”, lo que deja a las instituciones en condición vulnerable ante amenazas cada vez más complejas.

El caso del grupo de ciberdelincuencia “Chronus”, vinculado al hackeo masivo, refuerza este diagnóstico. Un solo actor criminal accedió a más de dos decenas de organismos en un periodo breve. Este hecho refleja la ausencia de una arquitectura de seguridad robusta y de lineamientos obligatorios en el sector público. “Sin gestión de riesgo continua, gobierno de identidades sólido, monitoreo y respuesta madura, los atacantes encuentran caminos repetibles”, insistió la experta.

En este sentido, explicó que el problema no se limita a la tecnología. “La brecha tampoco es solo técnica: incluye procesos, coordinación y estándares”, dijo. La falta de gestión de riesgo continua, de un gobierno sólido de identidades y de mecanismos eficaces de respuesta permite que los atacantes encuentren caminos repetibles.

Las consecuencias de estas filtraciones rebasan el momento del incidente. La exposición de bases de datos de instituciones críticas coloca a la ciudadanía ante riesgos concretos, como suplantación de identidad, fraudes con información fiscal o de registro, campañas de phishing más creíbles y extorsión.


Derivado del monitoreo constante que realizan, el análisis del equipo de Cyber Threat Intelligence de la empresa identificó tres amenazas con crecimiento acelerado en México: la ingeniería social sofisticada, el ransomware y el uso de inteligencia artificial por parte de atacantes para escalar campañas de engaño. Este panorama exige una revisión del enfoque de defensa.

De acuerdo con la compañía, la respuesta no radica en la acumulación de herramientas, sino en un cambio de modelo. “Hay que mover la conversación de ‘herramientas’ a modelo operativo”, planteó Delgadillo. Este esquema incluye medición constante del riesgo, protección de identidades y accesos, monitoreo permanente y planes de continuidad con simulaciones para reducir tiempos de reacción.

“La prevención cuesta una fracción de la remediación, y esa diferencia define si una organización resiste o se paraliza”, afirmó. Este principio aplica tanto en el sector público como en el privado, con especial atención en pequeñas y medianas empresas.

Finalmente, reiteró la necesidad de un marco legal que ordene el ecosistema de ciberseguridad en México y subrayó la importancia de contar con certeza jurídica, obligaciones mínimas y coordinación. Sobre la iniciativa de Ley Federal de Ciberseguridad, agregó que debe establecer estándares para infraestructura crítica, definir responsabilidades y fortalecer la cooperación entre sectores. “Sin un marco claro, los esfuerzos permanecen aislados; con un marco sólido, se puede construir resiliencia nacional de forma consistente”, concluyó.

Continue Reading

Tendencia

Copyright © 2021 La Hora