Connect with us

Geek

Para evitar que te roben la cuenta WhatsApp está trabajando en una nueva función

Published

on

WhatsApp sigue trabajando con el fin de mejorar la herramienta. Actualmente, la ‘app’ propiedad de Meta está desarrollando un doble sistema de verificación con el que se pretende mejorar la privacidad de la cuenta del usuario. En caso de que alguien intente abrir una cuenta de WhatsApp en un nuevo terminal, la aplicación mandará un segundo código numérico y una notificación al internauta en la que se le informará de que alguien está intentando utilizar su cuenta en otro teléfono móvil, según informa WABetaInfo.

Actualmente, WhatsApp únicamente dispone de un sistema de verificación que exige la introducción de un código de seis dígitos antes de registrar la cuenta en un nuevo terminal. Sin embargo, si una persona registra un número de teléfono en una cuenta de WhatsApp y logra obtener el código que se envía a este número para seguir adelante en el proceso de instalación, la cuenta presente en el primer dispositivo se desvincula.

Ahora, la red social está trabajando en un nuevo sistema de verificación destinada a dispositivos móviles mediante el envío de dos códigos para evitar ciberataques. Gracias a la función, que se encuentra en fase beta para iOS y Android, cuando el primer intento de iniciar sesión en una cuenta de WhatsApp sea exitoso, se va a exigir otro código de seis dígitos, que se comparte con el dispositivo principal, para completar el proceso. De este modo, los cibercriminales lo tendrán más complicado a la hora de robar una cuenta.

Esta segunda verificación incluye una notificación que indica que «el número está siendo utilizado por WhatsApp en otro teléfono. Para asegurarse de que su cuenta está bajo su control, debe confirmar otro código de verificación». Asimismo, este mensaje informa de que, para reforzar la seguridad de los usuarios, se ha introducido un temporizador. El usuario deberá esperar a que termine para poder ingresar el código de seis dígitos y completar el proceso de recuperación de la aplicación.

Cabe recordar que los cibercriminales llevan años teniendo un gran interés por robar a los usuarios sus cuentas en la ‘app’ de mensajería. Gracias a ello, pueden suplantar a la víctima y lanzar ataques contra sus contactos. Normalmente, los delincuentes suelen intentar engañar a los usuarios a través de mensajes en WhatsApp para conseguir que les compartan los códigos de autenticación. En caso de que los consigan, tienen acceso total a la cuenta, que deja de estar disponible para la víctima.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

Así será el asistente con IA que promete destruir al teléfono móvil tradicional

Published

on

By

Con el avance acelerado de la inteligencia artificial (IA) generativa y genética, varias empresas tecnológicas han comenzado a desarrollar un nuevo tipo de dispositivo capaz de reemplazar al teléfono inteligente y gestionar de forma autónoma las actividades cotidianas del usuario mediante interacción por voz y sistemas personalizados

El primer intento de esta revolución fue el AI Pin , presentado en 2023 por la compañía Humane . Este innovador dispositivo —sin pantalla, portátil y potenciado por IA— se fijaba a la ropa y ofrecía una experiencia interactiva basada en la voz, el tacto y los gestos, además de proyectar una interfaz láser de 720p en la palma de la mano . Sin embargo, el proyecto fracasó por respuestas lentas, información imprecisa y escasa duración de la batería , dejando de operar en febrero de 2025 tras la adquisición de Humane por HP .

En 2024 surgió una nueva propuesta: el Rabbit r1 , un asistente de bolsillo que unificaba las aplicaciones del teléfono en una sola interfaz, permitiendo controlarlas mediante comandos de voz. Aunque no buscaba sustituir al smartphone, sí pretendía simplificar su uso y reducir la necesidad de navegar entre diferentes plataformas.

Pese a estos tropiezos, el futuro de la tecnología parece avanzar hacia un mundo sin teléfonos móviles tradicionales . La empresa Nothing , dirigida por Carl Pei , trabaja actualmente en una plataforma nativa de inteligencia artificial que aspira a convertirse en el nuevo dispositivo central de la vida digital . Según Pei, el desarrollo requiere “ reinventar el hardware de consumo ” y crear un sistema operativo que conozca profundamente a su usuario y se adapte de forma personalizada .

Nothing ha asegurado una ronda de financiación Serie C de 200 millones de dólares , lo que eleva su valoración a 1.300 millones de dólares (unos 1.099 millones de euros ).

Paralelamente, OpenAI también apuesta por el hardware inteligente. En mayo, la empresa adquirió io , compañía cofundada por Jonathan Ive , exdiseñador de Apple, con el propósito de crear un equipo especializado en el desarrollo de dispositivos de inteligencia artificial .

Aunque no se han revelado muchos detalles, se sabe que OpenAI no planea fabricar un wearable ni auriculares , sino un dispositivo similar a un altavoz inteligente sin pantalla , actualmente en fase de prototipo. Según el director ejecutivo Sam Altman , el objetivo es construir un equipo “ capaz de entender el contexto del usuario, decidir cuándo interrumpirlo y cuándo mantenerse en silencio ”.

El proyecto aún enfrenta retos significativos en áreas como software, privacidad, infraestructura y capacidad de cómputo , pero se espera que el dispositivo esté listo en menos de dos años , marcando un punto de inflexión en la relación entre los humanos y la personal.

Continue Reading

Geek

2wai: la app con la que puedes hablar con tus seres queridos después de su muerte

Published

on

By

¡El futuro nos alcanzó! Así como si se trata de una historia de ciencia ficción, surgió 2Wai: la app que revive a seres queridos con avatares de IA. La tecnología avanza a pasos agigantados y con ella surgen ideas que hasta hace poco parecían pura fantasía.

Esta aplicación promete algo inédito e inquietante a través de la creación de avatares digitales con inteligencia artificial que “revivan” a seres queridos fallecidos, permitiéndote hablar con ellos como si siguieran aquí.

La idea, sin duda, despierta emociones intensas: por un lado, la esperanza de “mantener vivos” recuerdos, voces y presencia de quienes ya se fueron en tu día a día. Por otro, una profunda incertidumbre ética, emocional y existencial: ¿qué tan sano es reemplazar el duelo con una simulación? ¿Qué pasa con el consentimiento, la identidad y el respeto al fallecido?

¿Qué es 2Wai: la app que revive memorias con IA?

2Wai es una aplicación impulsada por IA que permite crear lo que su equipo llama un “HoloAvatar”: un clon digital, con apariencia, voz, gestos y supuestamente recuerdos, de una persona real

Según su página oficial, basta con grabar un video corto con la cámara del celular, y en cuestión de minutos la app genera el avatar. La app fue lanzada públicamente en 2025 y fundada por el actor Calum Worthy (conocido por su trabajo en Disney Channel) junto con el productor hollywoodense Russell Geyser. 

2Wai describe su misión como “la primera red social de avatares humanos”, donde tanto personas comunes como figuras públicas pueden tener versiones digitales con las que interactuar.

La app permite crear “gemelos” digitales de personas vivas para creadores de contenido, marcas o uso comercial, así pueden extender su presencia digital, responder mensajes, atender fans o clientes en múltiples idiomas y simular interacción 24/7 mediante clones digitales. 

Sin embargo, la función más polémica de 2wai es la que recrea familiares fallecidos, por lo que en redes sociales se ha hablado de la necesidad de regulación sobre “clonación digital”, “derechos post mortem”, “privacidad de datos de fallecidos” y “consentimiento ético”. 

¿Cómo funciona 2Wai?

Para generar un avatar, 2Wai necesita ciertos insumos del usuario: un video, audio, imágenes, y en algunos casos textos o datos que describan a la persona. Con este material, la IA analiza rasgos faciales, voz, gestos, entonación, y otros parámetros.

Según la empresa, basta con unos minutos de grabación para que el sistema pueda generar un avatar bastante realista en poco tiempo; pero no hay claridad pública sobre cómo la IA reconstruye esos recuerdos: es decir, si se basan en datos reales, inputs del usuario, o generación creativa a partir de contexto. 

Una vez creado, el HoloAvatar puede “hablar” contigo: responde con voz sintetizada, movimientos faciales, sincronización labial y gestos. La interacción es en tiempo real, lo que busca dar una experiencia lo más cercana posible a la vida real.

La app también sugiere que los avatares pueden responder en varios idiomas, lo que haría que su alcance sea global, independientemente del idioma de origen de la persona.

En el caso de figuras públicas o creadores de contenido, 2Wai los presenta como una posibilidad de “multiplicar” su presencia digital sin que ellos estén físicamente disponibles: una especie de “yo digital” que habla con fans, contesta preguntas, da consejos o incluso “vive” indefinidamente.

¿Se puede contratar 2Wai?

2Wai está disponible en versión beta, al menos para iOS y la versión para Android se marca como próximamente. Por ahora, algunos usuarios pueden probar la app gratuitamente, pero los desarrolladores ya mencionan planes de suscripción.  

Aunque la  empresa no ha aclarado completamente qué pasa con el avatar si la persona deja de pagar. Además, está la cuestión de la privacidad y los datos: al subir videos, audios e información íntima de personas fallecidas, los usuarios entregan datos sensibles a una empresa privada.

La opción de “hablar con un ser querido que ya no está” puede parecer reconfortante, especialmente si la pérdida fue reciente o dolorosa. Pero muchos expertos y usuarios advierten que este tipo de herramientas podría interferir con el duelo, impedir la aceptación de la pérdida o generar dependencia emocional.

Continue Reading

Geek

OpenAI niega responsabilidad en el suicidio de un joven tras interactuar con ChatGPT

Published

on

By

 La compañía tecnológica OpenAI se negó a tener responsabilidad legal en el suicidio de un joven de 16 años que, según la demanda presentada por sus padres, habría interactuado con ChatGPT durante meses antes de quitarse la vida . La empresa atribuyó el hecho a un “uso indebido e inapropiado” de la herramienta.

En un documento entregado esta semana al Tribunal Superior de California, en San Francisco , y citado por NBC News , OpenAI argumentó que las lesiones y daños señalados por los demandantes fueron consecuencia de “un uso no autorizado, imprevisible e inadecuado” de su sistema por parte del menor, identificado como Adam Raine .
La respuesta de la compañía se dio tras la demanda interpuesta en agosto de 2025 por Matt y Maria Raine , padres del adolescente, quienes acusaron a OpenAI y a su director ejecutivo, Sam Altman , de negligencia al supuestamente lanzar al mercado la versión GPT-4o sin problemas de seguridad .

Según los Raine, ChatGPT “ayudó activamente” a su hijo a explorar métodos de suicidio , lo que, a su juicio, convierte a la empresa en coparticipe del resultado fatal .

Sin embargo, OpenAI sostuvo que Adam violó varios términos de uso del servicio , entre ellos la prohibición para menores de 18 años sin autorización de sus tutores legales , además de ignorar las advertencias que la herramienta emite sobre su uso responsable.

La tecnológica subrayó que el chat advierte expresamente a los usuarios que no deben tomar sus respuestas como una fuente única de verdad , y agregó que en las conversaciones con el joven ChatGPT insistió más de un centenar de veces en que buscara ayuda profesional .

En su defensa, la empresa afirmó que el fallecimiento de Raine derivó del “rechazo a atender las advertencias ya buscar apoyo” , así como de la “falta de respuesta de terceros ante los signos de angustia” que el joven habría manifestado.

En una publicación en su página oficial, OpenAI destacó que su impugnación judicial “incluye hechos difíciles sobre la salud mental y las circunstancias de vida” del adolescente, y señaló que la demanda original contenía fragmentos editados de las conversaciones mantenidas con el sistema, los cuales “requerían mayor contexto” .

La empresa reiteró su compromiso con el uso seguro de la inteligencia artificial y defendió que sus productos incluyen múltiples advertencias, filtros de seguridad y protocolos de respuesta diseñados para prevenir situaciones de riesgo.

Continue Reading

Tendencia

Copyright © 2021 La Hora