Connect with us

Geek

2wai: la app con la que puedes hablar con tus seres queridos después de su muerte

Published

on

¡El futuro nos alcanzó! Así como si se trata de una historia de ciencia ficción, surgió 2Wai: la app que revive a seres queridos con avatares de IA. La tecnología avanza a pasos agigantados y con ella surgen ideas que hasta hace poco parecían pura fantasía.

Esta aplicación promete algo inédito e inquietante a través de la creación de avatares digitales con inteligencia artificial que “revivan” a seres queridos fallecidos, permitiéndote hablar con ellos como si siguieran aquí.

La idea, sin duda, despierta emociones intensas: por un lado, la esperanza de “mantener vivos” recuerdos, voces y presencia de quienes ya se fueron en tu día a día. Por otro, una profunda incertidumbre ética, emocional y existencial: ¿qué tan sano es reemplazar el duelo con una simulación? ¿Qué pasa con el consentimiento, la identidad y el respeto al fallecido?

¿Qué es 2Wai: la app que revive memorias con IA?

2Wai es una aplicación impulsada por IA que permite crear lo que su equipo llama un “HoloAvatar”: un clon digital, con apariencia, voz, gestos y supuestamente recuerdos, de una persona real

Según su página oficial, basta con grabar un video corto con la cámara del celular, y en cuestión de minutos la app genera el avatar. La app fue lanzada públicamente en 2025 y fundada por el actor Calum Worthy (conocido por su trabajo en Disney Channel) junto con el productor hollywoodense Russell Geyser. 

2Wai describe su misión como “la primera red social de avatares humanos”, donde tanto personas comunes como figuras públicas pueden tener versiones digitales con las que interactuar.

La app permite crear “gemelos” digitales de personas vivas para creadores de contenido, marcas o uso comercial, así pueden extender su presencia digital, responder mensajes, atender fans o clientes en múltiples idiomas y simular interacción 24/7 mediante clones digitales. 

Sin embargo, la función más polémica de 2wai es la que recrea familiares fallecidos, por lo que en redes sociales se ha hablado de la necesidad de regulación sobre “clonación digital”, “derechos post mortem”, “privacidad de datos de fallecidos” y “consentimiento ético”. 

¿Cómo funciona 2Wai?

Para generar un avatar, 2Wai necesita ciertos insumos del usuario: un video, audio, imágenes, y en algunos casos textos o datos que describan a la persona. Con este material, la IA analiza rasgos faciales, voz, gestos, entonación, y otros parámetros.

Según la empresa, basta con unos minutos de grabación para que el sistema pueda generar un avatar bastante realista en poco tiempo; pero no hay claridad pública sobre cómo la IA reconstruye esos recuerdos: es decir, si se basan en datos reales, inputs del usuario, o generación creativa a partir de contexto. 

Una vez creado, el HoloAvatar puede “hablar” contigo: responde con voz sintetizada, movimientos faciales, sincronización labial y gestos. La interacción es en tiempo real, lo que busca dar una experiencia lo más cercana posible a la vida real.

La app también sugiere que los avatares pueden responder en varios idiomas, lo que haría que su alcance sea global, independientemente del idioma de origen de la persona.

En el caso de figuras públicas o creadores de contenido, 2Wai los presenta como una posibilidad de “multiplicar” su presencia digital sin que ellos estén físicamente disponibles: una especie de “yo digital” que habla con fans, contesta preguntas, da consejos o incluso “vive” indefinidamente.

¿Se puede contratar 2Wai?

2Wai está disponible en versión beta, al menos para iOS y la versión para Android se marca como próximamente. Por ahora, algunos usuarios pueden probar la app gratuitamente, pero los desarrolladores ya mencionan planes de suscripción.  

Aunque la  empresa no ha aclarado completamente qué pasa con el avatar si la persona deja de pagar. Además, está la cuestión de la privacidad y los datos: al subir videos, audios e información íntima de personas fallecidas, los usuarios entregan datos sensibles a una empresa privada.

La opción de “hablar con un ser querido que ya no está” puede parecer reconfortante, especialmente si la pérdida fue reciente o dolorosa. Pero muchos expertos y usuarios advierten que este tipo de herramientas podría interferir con el duelo, impedir la aceptación de la pérdida o generar dependencia emocional.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

¡Déjalo sonar! Rechazar llamadas desconocidas hará que termines en otros call centers

Published

on

By

Las llamadas desconocidas se han convertido en algo de lo más molesto para las personas, por lo que, ante ello, la mayoría recurre a rechazarlas constantemente, desconociendo que este es un error que resulta perjudicial, ocasionando que el ciclo se intensifique y que el número en cuestión termine siendo vendido a otros call centers. 

Es muy común pensar que rechazar la llamada equivale a “ganarle” al spam. Muchas personas ven un número sospechoso y lo cortan de inmediato creyendo que así lo espantan, cuando en realidad solo terminaron interactuando con la llamada.

rechazar llamadas spam.EspecialRechazar llamadas spam no “vende” automáticamente tu número de forma directa, pero sí puede convertirlo en un dato más valioso dentro de redes de telemarketing y fraude.

Lo importante es entender cómo funciona: muchos call centers, marcadores automáticos y bases de datos comercian con listas de números. Un número que demuestra actividad vale más que uno muerto o abandonado.

Muchas campañas usan sistemas automáticos que llaman miles de números al día. Registran resultados como:Número inexistente Línea apagada No responde Buzón Ocupado Rechazó llamada Contestó una persona Mostró interés Cuando rechazas manualmente, en algunos sistemas eso se interpreta como: línea real, teléfono encendido, usuario activo. No significa venta inmediata, pero sí que tu número puede subir de categoría como “contactable”.

Después, esa base de datos puede compartirse, rentarse o venderse entre despachos de cobranza, telemarketing agresivo, encuestas falsas o estafadores.

Para ellos, una lista depurada de números activos vale más dinero que una lista llena de líneas muertas.

¿Por qué les interesa tanto un número activo?Llamar cuesta tiempo y recursos. Si tienen 100 mil números y solo 20 mil responden o reaccionan, esas líneas son oro para ellos. Por eso recopilan señales:

Rechazas rápido 

Cuelgas al instante 

Contestas y guardas silencio

Llamas de regreso 

Interactúas con menú automático 

Cada acción puede indicar que detrás hay una persona real.

Qué debes hacer en vez de rechazar constantemente

Lo más útil suele ser:

No contestar números sospechosos.Dejar sonar si no esperas llamada. 

Bloquear el número después.

Reportarlo como spam desde tu teléfono. 

Activar filtros automáticos en Android o iOS. No devolver llamadas desconocidas.

Continue Reading

Geek

La IA generativa impulsa la violencia

Published

on

By

La inteligencia artificial se ha convertido en una herramienta para ejercer violencia, particularmente contra las mujeres, y para resolver esta problemática es necesario una mayor educación y programar con equidad desde el diseño.

El estudio El espejismo de la inteligencia artificial, un reflejo incómodo con alto impacto en los jóvenes, elaborado por LLYC, identificó que los deepfakes son una de las aplicaciones más alarmantes de esta tecnología.

Las deepfakes son imágenes, audios o videos generados a través de inteligencia artificial que pueden usarse desde en efectos especiales para cine hasta para contenido falso.

Blanca Juana Gómez, directora de LLYC México, consideró que el fácil acceso a este tipo de herramientas permite la producción tanto masiva como anónima de contenido que puede dañar a las personas.

Muestra de ello es que, según el informe Perpetuando la misoginia con IA generativa de la Universidad de Zúrich, 98% de los videos deepfake son de carácter pornográfico y de éstos el 99% impacta a las mujeres.

«El famoso empoderamiento de la mujer no tiene que ser el debilitamiento de los hombres, eso sólo genera más violencia.” Blanca Juana Gómez Directora de LLYC México

Destaca el caso de un estudiante universitario en México que modificó 166 mil fotos de sus compañeras para convertirlas en material pornográfico y las vendió a través de Telegram.

Por lo anterior, en el estudio realizado por LLYC se encontró que 84% de las mujeres encuestadas teme que su imagen sea utilizada para crear deepfakes sexuales, un porcentaje mayor que la registrada por los hombres.

“Es real que la violencia está muy fuerte, que hay mucha y sofisticada”

Hombres más solos

A esto se añade que, de acuerdo con el reporte, los modelos de inteligencia artificial pueden incrementar la brecha de género y reforzar los estereotipos. Por ejemplo, los cinco modelos analizados asumen que los hombres son resilientes, invulnerables, capaces de liderar y muchas veces las respuestas son complacientes para validar sus puntos de vista.

Este fenómeno se complementa con otras tendencias como las tradwife, es decir, mujeres que se enfocan exclusivamente en el cuidado del hogar que refuerzan los roles de género.

“Esto lleva a los hombres a esquemas patriarcales que no les permiten fallar, ser vulnerables o ser emocionales. Pero, los hombres también quieren sentir, expresarse, paternar y el sistema no los deja, eso es una supresión emocional que genera violencia”, añadió la directora.

Esto último ha generado un crecimiento de movimientos como los incels, cuyos miembros han estado involucrados en varios episodios violentos alrededor del mundo. Gómez cree que debe seguir impulsándose una revolución feminista que busque la igualdad, impulsar una educación crítica con respecto al uso de los modelos de IA y, desde el lado tecnológico, programar con equidad desde el diseño y realizar auditorías.

Continue Reading

Geek

Crecen fraudes con criptomonedas en México ahora más sofisticados

Published

on

By

Los fraudes relacionados con criptomonedas siguen creciendo en México debido al uso de inteligencia artificial por parte de los delincuentes, por lo que es necesario que las empresas del sector y los usuarios tengan más cuidado para no convertirse en víctimas.

El reporte Panorama de la industria de Criptomonedas 2026, realizado por Sumsub, encontró que el porcentaje de fraudes en esta industria aún es bajo en comparación al total de las transacciones, ya que la tasa media de fraude global se mantuvo estable en 2.2% entre 2024 y 2025, sin embargo, los ataques se están volviendo más dirigidos y automatizados.


“Este reporte muestra que México, aunque tiene una tasa de intento de fraude 1.3% y por debajo del promedio global, está marcado por un riesgo que crece de manera exponencial y con técnicas mucho más sofisticadas”, reiteró la líder de alianzas en Sumsub América Latina, Mariana Heinau.

Al platicar con Excélsior detalló que los defraudadores no dependen de una sola técnica para atacar, y utilizan la inteligencia artificial para que sus campañas sean más certeras.
Por ejemplo, usan dicha tecnología para que la ingeniería social como los correos de phishing sean más difíciles de detectar, así como para generar identidades sintéticas o deepfakes que permitan vulnerar los sistemas de verificación de identidad.

De acuerdo con la experta, generar identidades sintéticas sirve para tener perfiles falsos dentro de las plataformas de criptomonedas y así realizar actividades delictivas, como puede ser lavado de dinero, mientras que las deepfakes permitirían tomar la cuenta de un usuario y robar sus activos.

Dicha sofisticación significó que 55% de las empresas encuestadas en el mundo experimentó fraude al menos una vez en 2025, a lo que se añade que 15% de las compañías contestaron que no saben si fueron víctimas.

Para Heinau, esto último demuestra que hay una brecha entre las capacidades de detección y la creciente sofisticación de los ataques.


Ante este escenario, 74% de las empresas del sector encuestadas en el mundo indicó que ya no está buscando un “crecimiento a toda costa”, ahora prioriza la precisión en la verificación sobre la velocidad de incorporación de nuevos usuarios. De ahí que más de 50% de los sondeados está adoptando plataformas de detección de fraudes basadas en inteligencia artificial, así como en análisis y monitoreo avanzado de fraudes.

La líder de alianzas destacó que Sumsub actualmente cuenta con plataformas para el análisis de comportamiento del usuario, lo cual permite entender cómo actúa la persona dentro de la plataforma y detectar actividades sospechosas. Esto se complementa con una plataforma que usa inteligencia artificial para identificar identidades sintéticas y hacer un monitoreo transaccional para saber hacia dónde se envían los activos.

Esto último es clave porque las autoridades de países como Argentina, Chile e incluso México están analizando implementar la Regla de Viaje en las plataformas de criptomonedas, es decir, compartir datos básicos de quién envía y recibe fondos con el fin de prevenir delitos de lavado de dinero.

Continue Reading

Tendencia

Copyright © 2021 La Hora