Connect with us

Geek

Te decimos como saber si han hackeado tu webcam; consejos para prevenirlo

Published

on

El ‘camfecting‘, el intento de piratear una cámara web y activarla sin el permiso de su propietario, es un fenómeno que ha proliferado a raíz de la pandemia de covid-19 ante el auge del teletrabajo y las videollamadas.

Las ‘webcams‘ son utilizadas a diario para conectar a sus usuarios con otras personas tanto a nivel profesional como personal. Están presentes en equipos del día a día como los teléfonos móviles, los ordenadores portátiles y las tabletas. Sin embargo, la compañía de ‘software’ especializada en ciberseguridad ESET señala en su último informe que también pueden suponer un gran peligro.

Este acto de ‘hackeo’ y espionaje «no sólo invade a la intimidad, sino que puede afectar seriamente a la salud mental y al bienestar de las personas», por ello desde ESET señalan que «es más importante que nunca ser más conscientes de los riesgos y estar preparado para tomar medidas que mejoren nuestra privacidad y seguridad ‘online’.

El ciberatacante puede lograr ‘hackear’ una ‘webcam’ a través de los troyanos de acceso remoto (RATs, por sus siglas en inglés), que son un tipo de ‘malware’ que permite controlar de forma remota el dispositivo de la víctima. Así, puede encender su ‘webcam’ sin activar la luz, hacer grabaciones y enviar los archivos de vídeo.

Estos RAT pueden infectar un dispositivo como cualquier otro ‘malware’ a través de enlaces o archivos adjuntos maliciosos en correos electrónicos de ‘phishing’ o en aplicaciones de mensajería y redes sociales, además de en otras ‘apps’ móviles maliciosas que suplantan el aspecto de la oficial.

El atacante también puede utilizar ‘exploits’ que aprovechan vulnerabilidades y errores de los programas para obtener acceso no autorizado a un equipo o tomar el control de un sistema.

Los dispositivos de seguridad doméstica, como las cámaras de CCTV y los monitores de bebés, plantean una situación particular, no del todo igual a la de los teléfonos móviles o los ordenadores con cámara integrada.

Estos dispositivos están diseñados para mantener la seguridad de las personas, pero «podrían ser secuestrados por delincuentes», apuntan desde ESET. «Esto podría ocurrir a través de explotaciones de vulnerabilidad o podría hacerse simplemente adivinando nuestras contraseñas, o forzándolas a través de un software automatizado que prueba los inicios de sesión robados a través de nuevas cuentas para ver si las hemos reutilizado», detallan.

ESET subraya que «el hackeo de webcam es una amenaza real», y por ello señala algunos indicios a los que el usuario debe prestar especial atención para conocer si su cámara ha sido comprometida, por ejemplo, en caso de que la luz de este componente se encienda cuando no está siendo utilizada por el usuario.

Otro aspecto a tener en cuenta son los archivos «extraños» guardados en el ordenador, ya que si un atacante ha ‘hackeado’ la ‘webcam’, es probable que existan archivos guardados de esta actividad en el ordenador, especialmente aquellos localizados en ‘Documentos’ o en las carpetas de vídeo del disco duro.

La compañía también exhorta al usuario a revisar si ve alguna aplicación «inusual» en su equipo, que podría contener RAT. Y a prestar atención a la configuración, ya que este tipo de ‘malware’ suele desactivar alguna función de seguridad.

En caso de que alguien se ponga en contacto con el usuario para comunicarle que le ha ‘hackeado’ la cámara, no hay que caer de entrada en lo que puede ser una trampa. Como explica el director de Investigación y Concienciación de ESET España, Josep Albors, «los estafadores oportunistas suelen utilizar alguna información de una infracción anterior, como un correo electrónico y una contraseña antiguos, como ‘prueba’ de que han accedido a tu dispositivo y a tu cámara web» e «intentarán engañarte para que les envíes dinero en criptomonedas para evitar que envíen por correo electrónico imágenes o vídeos comprometedores a todos tus contactos».

No obstante, para evitar que alguien acceda a la ‘webcam‘, desde ESET aconsejan tener el software del dispositivo siempre actualizado y con la protección de un programa ‘antimalware’. También confirmar que se está protegido por una contraseña fuerte y única, además de sistema de autenticación de dos factores (2FA) en caso de ser posible.

La empresa aconseja de igual manera no hacer clic en los enlaces de comunicaciones no solicitadas y, por último, cubrir el objetivo de la cámara cuando no esté siendo utilizada, pese a que esta medida no impedirá que los delincuentes puedan escuchar a través del micrófono del dispositivo.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

Así será el asistente con IA que promete destruir al teléfono móvil tradicional

Published

on

By

Con el avance acelerado de la inteligencia artificial (IA) generativa y genética, varias empresas tecnológicas han comenzado a desarrollar un nuevo tipo de dispositivo capaz de reemplazar al teléfono inteligente y gestionar de forma autónoma las actividades cotidianas del usuario mediante interacción por voz y sistemas personalizados

El primer intento de esta revolución fue el AI Pin , presentado en 2023 por la compañía Humane . Este innovador dispositivo —sin pantalla, portátil y potenciado por IA— se fijaba a la ropa y ofrecía una experiencia interactiva basada en la voz, el tacto y los gestos, además de proyectar una interfaz láser de 720p en la palma de la mano . Sin embargo, el proyecto fracasó por respuestas lentas, información imprecisa y escasa duración de la batería , dejando de operar en febrero de 2025 tras la adquisición de Humane por HP .

En 2024 surgió una nueva propuesta: el Rabbit r1 , un asistente de bolsillo que unificaba las aplicaciones del teléfono en una sola interfaz, permitiendo controlarlas mediante comandos de voz. Aunque no buscaba sustituir al smartphone, sí pretendía simplificar su uso y reducir la necesidad de navegar entre diferentes plataformas.

Pese a estos tropiezos, el futuro de la tecnología parece avanzar hacia un mundo sin teléfonos móviles tradicionales . La empresa Nothing , dirigida por Carl Pei , trabaja actualmente en una plataforma nativa de inteligencia artificial que aspira a convertirse en el nuevo dispositivo central de la vida digital . Según Pei, el desarrollo requiere “ reinventar el hardware de consumo ” y crear un sistema operativo que conozca profundamente a su usuario y se adapte de forma personalizada .

Nothing ha asegurado una ronda de financiación Serie C de 200 millones de dólares , lo que eleva su valoración a 1.300 millones de dólares (unos 1.099 millones de euros ).

Paralelamente, OpenAI también apuesta por el hardware inteligente. En mayo, la empresa adquirió io , compañía cofundada por Jonathan Ive , exdiseñador de Apple, con el propósito de crear un equipo especializado en el desarrollo de dispositivos de inteligencia artificial .

Aunque no se han revelado muchos detalles, se sabe que OpenAI no planea fabricar un wearable ni auriculares , sino un dispositivo similar a un altavoz inteligente sin pantalla , actualmente en fase de prototipo. Según el director ejecutivo Sam Altman , el objetivo es construir un equipo “ capaz de entender el contexto del usuario, decidir cuándo interrumpirlo y cuándo mantenerse en silencio ”.

El proyecto aún enfrenta retos significativos en áreas como software, privacidad, infraestructura y capacidad de cómputo , pero se espera que el dispositivo esté listo en menos de dos años , marcando un punto de inflexión en la relación entre los humanos y la personal.

Continue Reading

Geek

2wai: la app con la que puedes hablar con tus seres queridos después de su muerte

Published

on

By

¡El futuro nos alcanzó! Así como si se trata de una historia de ciencia ficción, surgió 2Wai: la app que revive a seres queridos con avatares de IA. La tecnología avanza a pasos agigantados y con ella surgen ideas que hasta hace poco parecían pura fantasía.

Esta aplicación promete algo inédito e inquietante a través de la creación de avatares digitales con inteligencia artificial que “revivan” a seres queridos fallecidos, permitiéndote hablar con ellos como si siguieran aquí.

La idea, sin duda, despierta emociones intensas: por un lado, la esperanza de “mantener vivos” recuerdos, voces y presencia de quienes ya se fueron en tu día a día. Por otro, una profunda incertidumbre ética, emocional y existencial: ¿qué tan sano es reemplazar el duelo con una simulación? ¿Qué pasa con el consentimiento, la identidad y el respeto al fallecido?

¿Qué es 2Wai: la app que revive memorias con IA?

2Wai es una aplicación impulsada por IA que permite crear lo que su equipo llama un “HoloAvatar”: un clon digital, con apariencia, voz, gestos y supuestamente recuerdos, de una persona real

Según su página oficial, basta con grabar un video corto con la cámara del celular, y en cuestión de minutos la app genera el avatar. La app fue lanzada públicamente en 2025 y fundada por el actor Calum Worthy (conocido por su trabajo en Disney Channel) junto con el productor hollywoodense Russell Geyser. 

2Wai describe su misión como “la primera red social de avatares humanos”, donde tanto personas comunes como figuras públicas pueden tener versiones digitales con las que interactuar.

La app permite crear “gemelos” digitales de personas vivas para creadores de contenido, marcas o uso comercial, así pueden extender su presencia digital, responder mensajes, atender fans o clientes en múltiples idiomas y simular interacción 24/7 mediante clones digitales. 

Sin embargo, la función más polémica de 2wai es la que recrea familiares fallecidos, por lo que en redes sociales se ha hablado de la necesidad de regulación sobre “clonación digital”, “derechos post mortem”, “privacidad de datos de fallecidos” y “consentimiento ético”. 

¿Cómo funciona 2Wai?

Para generar un avatar, 2Wai necesita ciertos insumos del usuario: un video, audio, imágenes, y en algunos casos textos o datos que describan a la persona. Con este material, la IA analiza rasgos faciales, voz, gestos, entonación, y otros parámetros.

Según la empresa, basta con unos minutos de grabación para que el sistema pueda generar un avatar bastante realista en poco tiempo; pero no hay claridad pública sobre cómo la IA reconstruye esos recuerdos: es decir, si se basan en datos reales, inputs del usuario, o generación creativa a partir de contexto. 

Una vez creado, el HoloAvatar puede “hablar” contigo: responde con voz sintetizada, movimientos faciales, sincronización labial y gestos. La interacción es en tiempo real, lo que busca dar una experiencia lo más cercana posible a la vida real.

La app también sugiere que los avatares pueden responder en varios idiomas, lo que haría que su alcance sea global, independientemente del idioma de origen de la persona.

En el caso de figuras públicas o creadores de contenido, 2Wai los presenta como una posibilidad de “multiplicar” su presencia digital sin que ellos estén físicamente disponibles: una especie de “yo digital” que habla con fans, contesta preguntas, da consejos o incluso “vive” indefinidamente.

¿Se puede contratar 2Wai?

2Wai está disponible en versión beta, al menos para iOS y la versión para Android se marca como próximamente. Por ahora, algunos usuarios pueden probar la app gratuitamente, pero los desarrolladores ya mencionan planes de suscripción.  

Aunque la  empresa no ha aclarado completamente qué pasa con el avatar si la persona deja de pagar. Además, está la cuestión de la privacidad y los datos: al subir videos, audios e información íntima de personas fallecidas, los usuarios entregan datos sensibles a una empresa privada.

La opción de “hablar con un ser querido que ya no está” puede parecer reconfortante, especialmente si la pérdida fue reciente o dolorosa. Pero muchos expertos y usuarios advierten que este tipo de herramientas podría interferir con el duelo, impedir la aceptación de la pérdida o generar dependencia emocional.

Continue Reading

Geek

OpenAI niega responsabilidad en el suicidio de un joven tras interactuar con ChatGPT

Published

on

By

 La compañía tecnológica OpenAI se negó a tener responsabilidad legal en el suicidio de un joven de 16 años que, según la demanda presentada por sus padres, habría interactuado con ChatGPT durante meses antes de quitarse la vida . La empresa atribuyó el hecho a un “uso indebido e inapropiado” de la herramienta.

En un documento entregado esta semana al Tribunal Superior de California, en San Francisco , y citado por NBC News , OpenAI argumentó que las lesiones y daños señalados por los demandantes fueron consecuencia de “un uso no autorizado, imprevisible e inadecuado” de su sistema por parte del menor, identificado como Adam Raine .
La respuesta de la compañía se dio tras la demanda interpuesta en agosto de 2025 por Matt y Maria Raine , padres del adolescente, quienes acusaron a OpenAI y a su director ejecutivo, Sam Altman , de negligencia al supuestamente lanzar al mercado la versión GPT-4o sin problemas de seguridad .

Según los Raine, ChatGPT “ayudó activamente” a su hijo a explorar métodos de suicidio , lo que, a su juicio, convierte a la empresa en coparticipe del resultado fatal .

Sin embargo, OpenAI sostuvo que Adam violó varios términos de uso del servicio , entre ellos la prohibición para menores de 18 años sin autorización de sus tutores legales , además de ignorar las advertencias que la herramienta emite sobre su uso responsable.

La tecnológica subrayó que el chat advierte expresamente a los usuarios que no deben tomar sus respuestas como una fuente única de verdad , y agregó que en las conversaciones con el joven ChatGPT insistió más de un centenar de veces en que buscara ayuda profesional .

En su defensa, la empresa afirmó que el fallecimiento de Raine derivó del “rechazo a atender las advertencias ya buscar apoyo” , así como de la “falta de respuesta de terceros ante los signos de angustia” que el joven habría manifestado.

En una publicación en su página oficial, OpenAI destacó que su impugnación judicial “incluye hechos difíciles sobre la salud mental y las circunstancias de vida” del adolescente, y señaló que la demanda original contenía fragmentos editados de las conversaciones mantenidas con el sistema, los cuales “requerían mayor contexto” .

La empresa reiteró su compromiso con el uso seguro de la inteligencia artificial y defendió que sus productos incluyen múltiples advertencias, filtros de seguridad y protocolos de respuesta diseñados para prevenir situaciones de riesgo.

Continue Reading

Tendencia

Copyright © 2021 La Hora