Connect with us

Geek

Así fue el hackeo contra el gobierno de México con IA, según Bloomberg

Published

on

Por medio de ChatGTP y Claude, un hacker obtuvo de diferentes dependencias mexicanas, tanto federales como estatales, 150 gigabytes de datos que incluyeron 195 millones de registros de contribuyentes y padrones electorales de todo el país.

El objetivo de la extracción de datos con uso de los chatbots con inteligencia artificial de y OpenAI era obtener identidades de funcionarios y empleados de diferentes niveles del gobierno mexicano.

Descrita como una campaña de robo de datos a agencias y dependencias mexicanas, la firma oriunda del estado genocida de Israel, Gambit Security, publicó un reporte en que detalló cómo el robo de datos mexicanos ayudó a Anthropic a detectar las formas en que ocupan Claude para hackeos.

Acorde con Bloomberg, medio que retomó el reporte de la firma israelí, fueron diferentes los objetivos del hackeo contra el gobierno de México y afectó a los tres niveles.

El robo de información ocurrió en solo dos meses, entre diciembre de 2023 y enero de 2024; enlistamos las principales dependencias y organismos afectados.

Servicio de Administración Tributaria (SAT)
Instituto Nacional Electoral (INE)
Gobierno de Jalisco
Gobierno de Michoacán
Gobierno de Tamaulipas
Servicios de Agua y Drenaje de Monterrey I.P.D.
Gobiernos municipales
Hackeo mexicano ayuda a mejorar seguridad de chatbots e IA

El medio referido, especializado en noticias sobre negocios y empresas, señaló que el hackeo contra organismos mexicanos ayudó a Anthropic a detectar los patrones de entrenamiento que utilizó el hacker para que Claude sustrajera la información.

Señaló que la empresa sí recibió la alerta sobre la utilización de su chatbot para el ilícito y bloqueó todas las cuentas implicadas en el acto; organismos del Estado mexicano, como el INE y el gobierno de Jalisco, negaron las filtraciones de información.

Con información de Infobae y Bloomberg

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

¡Déjalo sonar! Rechazar llamadas desconocidas hará que termines en otros call centers

Published

on

By

Las llamadas desconocidas se han convertido en algo de lo más molesto para las personas, por lo que, ante ello, la mayoría recurre a rechazarlas constantemente, desconociendo que este es un error que resulta perjudicial, ocasionando que el ciclo se intensifique y que el número en cuestión termine siendo vendido a otros call centers. 

Es muy común pensar que rechazar la llamada equivale a “ganarle” al spam. Muchas personas ven un número sospechoso y lo cortan de inmediato creyendo que así lo espantan, cuando en realidad solo terminaron interactuando con la llamada.

rechazar llamadas spam.EspecialRechazar llamadas spam no “vende” automáticamente tu número de forma directa, pero sí puede convertirlo en un dato más valioso dentro de redes de telemarketing y fraude.

Lo importante es entender cómo funciona: muchos call centers, marcadores automáticos y bases de datos comercian con listas de números. Un número que demuestra actividad vale más que uno muerto o abandonado.

Muchas campañas usan sistemas automáticos que llaman miles de números al día. Registran resultados como:Número inexistente Línea apagada No responde Buzón Ocupado Rechazó llamada Contestó una persona Mostró interés Cuando rechazas manualmente, en algunos sistemas eso se interpreta como: línea real, teléfono encendido, usuario activo. No significa venta inmediata, pero sí que tu número puede subir de categoría como “contactable”.

Después, esa base de datos puede compartirse, rentarse o venderse entre despachos de cobranza, telemarketing agresivo, encuestas falsas o estafadores.

Para ellos, una lista depurada de números activos vale más dinero que una lista llena de líneas muertas.

¿Por qué les interesa tanto un número activo?Llamar cuesta tiempo y recursos. Si tienen 100 mil números y solo 20 mil responden o reaccionan, esas líneas son oro para ellos. Por eso recopilan señales:

Rechazas rápido 

Cuelgas al instante 

Contestas y guardas silencio

Llamas de regreso 

Interactúas con menú automático 

Cada acción puede indicar que detrás hay una persona real.

Qué debes hacer en vez de rechazar constantemente

Lo más útil suele ser:

No contestar números sospechosos.Dejar sonar si no esperas llamada. 

Bloquear el número después.

Reportarlo como spam desde tu teléfono. 

Activar filtros automáticos en Android o iOS. No devolver llamadas desconocidas.

Continue Reading

Geek

La IA generativa impulsa la violencia

Published

on

By

La inteligencia artificial se ha convertido en una herramienta para ejercer violencia, particularmente contra las mujeres, y para resolver esta problemática es necesario una mayor educación y programar con equidad desde el diseño.

El estudio El espejismo de la inteligencia artificial, un reflejo incómodo con alto impacto en los jóvenes, elaborado por LLYC, identificó que los deepfakes son una de las aplicaciones más alarmantes de esta tecnología.

Las deepfakes son imágenes, audios o videos generados a través de inteligencia artificial que pueden usarse desde en efectos especiales para cine hasta para contenido falso.

Blanca Juana Gómez, directora de LLYC México, consideró que el fácil acceso a este tipo de herramientas permite la producción tanto masiva como anónima de contenido que puede dañar a las personas.

Muestra de ello es que, según el informe Perpetuando la misoginia con IA generativa de la Universidad de Zúrich, 98% de los videos deepfake son de carácter pornográfico y de éstos el 99% impacta a las mujeres.

«El famoso empoderamiento de la mujer no tiene que ser el debilitamiento de los hombres, eso sólo genera más violencia.” Blanca Juana Gómez Directora de LLYC México

Destaca el caso de un estudiante universitario en México que modificó 166 mil fotos de sus compañeras para convertirlas en material pornográfico y las vendió a través de Telegram.

Por lo anterior, en el estudio realizado por LLYC se encontró que 84% de las mujeres encuestadas teme que su imagen sea utilizada para crear deepfakes sexuales, un porcentaje mayor que la registrada por los hombres.

“Es real que la violencia está muy fuerte, que hay mucha y sofisticada”

Hombres más solos

A esto se añade que, de acuerdo con el reporte, los modelos de inteligencia artificial pueden incrementar la brecha de género y reforzar los estereotipos. Por ejemplo, los cinco modelos analizados asumen que los hombres son resilientes, invulnerables, capaces de liderar y muchas veces las respuestas son complacientes para validar sus puntos de vista.

Este fenómeno se complementa con otras tendencias como las tradwife, es decir, mujeres que se enfocan exclusivamente en el cuidado del hogar que refuerzan los roles de género.

“Esto lleva a los hombres a esquemas patriarcales que no les permiten fallar, ser vulnerables o ser emocionales. Pero, los hombres también quieren sentir, expresarse, paternar y el sistema no los deja, eso es una supresión emocional que genera violencia”, añadió la directora.

Esto último ha generado un crecimiento de movimientos como los incels, cuyos miembros han estado involucrados en varios episodios violentos alrededor del mundo. Gómez cree que debe seguir impulsándose una revolución feminista que busque la igualdad, impulsar una educación crítica con respecto al uso de los modelos de IA y, desde el lado tecnológico, programar con equidad desde el diseño y realizar auditorías.

Continue Reading

Geek

Crecen fraudes con criptomonedas en México ahora más sofisticados

Published

on

By

Los fraudes relacionados con criptomonedas siguen creciendo en México debido al uso de inteligencia artificial por parte de los delincuentes, por lo que es necesario que las empresas del sector y los usuarios tengan más cuidado para no convertirse en víctimas.

El reporte Panorama de la industria de Criptomonedas 2026, realizado por Sumsub, encontró que el porcentaje de fraudes en esta industria aún es bajo en comparación al total de las transacciones, ya que la tasa media de fraude global se mantuvo estable en 2.2% entre 2024 y 2025, sin embargo, los ataques se están volviendo más dirigidos y automatizados.


“Este reporte muestra que México, aunque tiene una tasa de intento de fraude 1.3% y por debajo del promedio global, está marcado por un riesgo que crece de manera exponencial y con técnicas mucho más sofisticadas”, reiteró la líder de alianzas en Sumsub América Latina, Mariana Heinau.

Al platicar con Excélsior detalló que los defraudadores no dependen de una sola técnica para atacar, y utilizan la inteligencia artificial para que sus campañas sean más certeras.
Por ejemplo, usan dicha tecnología para que la ingeniería social como los correos de phishing sean más difíciles de detectar, así como para generar identidades sintéticas o deepfakes que permitan vulnerar los sistemas de verificación de identidad.

De acuerdo con la experta, generar identidades sintéticas sirve para tener perfiles falsos dentro de las plataformas de criptomonedas y así realizar actividades delictivas, como puede ser lavado de dinero, mientras que las deepfakes permitirían tomar la cuenta de un usuario y robar sus activos.

Dicha sofisticación significó que 55% de las empresas encuestadas en el mundo experimentó fraude al menos una vez en 2025, a lo que se añade que 15% de las compañías contestaron que no saben si fueron víctimas.

Para Heinau, esto último demuestra que hay una brecha entre las capacidades de detección y la creciente sofisticación de los ataques.


Ante este escenario, 74% de las empresas del sector encuestadas en el mundo indicó que ya no está buscando un “crecimiento a toda costa”, ahora prioriza la precisión en la verificación sobre la velocidad de incorporación de nuevos usuarios. De ahí que más de 50% de los sondeados está adoptando plataformas de detección de fraudes basadas en inteligencia artificial, así como en análisis y monitoreo avanzado de fraudes.

La líder de alianzas destacó que Sumsub actualmente cuenta con plataformas para el análisis de comportamiento del usuario, lo cual permite entender cómo actúa la persona dentro de la plataforma y detectar actividades sospechosas. Esto se complementa con una plataforma que usa inteligencia artificial para identificar identidades sintéticas y hacer un monitoreo transaccional para saber hacia dónde se envían los activos.

Esto último es clave porque las autoridades de países como Argentina, Chile e incluso México están analizando implementar la Regla de Viaje en las plataformas de criptomonedas, es decir, compartir datos básicos de quién envía y recibe fondos con el fin de prevenir delitos de lavado de dinero.

Continue Reading

Tendencia

Copyright © 2021 La Hora