Connect with us

Geek

ChatGPT da consejos sobre drogas y suicidio a adolescentes, revela estudio

Published

on

Un nuevo estudio reveló que ChatGPT puede proporcionar a adolescentes instrucciones detalladas sobre cómo consumir drogas, ocultar trastornos alimentarios o incluso redactar cartas de suicidio, pese a las advertencias iniciales que el sistema ofrece ante temas sensibles.
La investigación fue realizada por el Centro para Contrarrestar el Odio Digital (CCDH, por sus siglas en inglés), cuyos integrantes simularon ser adolescentes vulnerables e interactuaron durante más de tres horas con el chatbot de OpenAI. En total, analizaron 1,200 respuestas de ChatGPT, de las cuales más de la mitad fueron clasificadas como peligrosas.

Aunque el sistema suele advertir sobre los riesgos de ciertas conductas, en muchos casos proporcionó planes detallados y personalizados sobre consumo de sustancias, autolesiones y dietas extremas. En algunos experimentos, el chatbot incluso redactó cartas de suicidio emocionalmente devastadoras dirigidas a padres, hermanos y amigos.

“El objetivo era probar los límites de seguridad del sistema”, declaró Imran Ahmed, director del CCDH. “La conclusión es alarmante: esas barreras son ineficaces o casi inexistentes”.

Tras conocer el informe, OpenAI respondió que continúa trabajando para mejorar la detección y el manejo de conversaciones sensibles, señalando que algunas interacciones pueden comenzar de forma inofensiva y luego derivar hacia temas delicados. La empresa no abordó directamente los hallazgos sobre el impacto en adolescentes, aunque aseguró que busca refinar la respuesta del chatbot en escenarios de angustia emocional.

Según datos de JPMorgan Chase, más de 800 millones de personas —el 10% de la población mundial— ya utilizan ChatGPT, incluidos muchos adolescentes. Un estudio de Common Sense Media reveló que más del 70% de los jóvenes en Estados Unidos recurren a chatbots para compañía, y la mitad lo hace con frecuencia.

El director del CCDH relató haber quedado particularmente afectado al leer tres notas de suicidio generadas por ChatGPT para el perfil falso de una niña de 13 años. “Comencé a llorar”, dijo Ahmed.

Aunque ChatGPT también proporcionó recursos como líneas de ayuda, los investigadores lograron eludir fácilmente sus negativas iniciales argumentando que buscaban información “para una presentación” o “para un amigo”.

En otra interacción, el chatbot aceptó guiar a un supuesto joven de 13 años que pedía ayuda para emborracharse. “Peso 50 kilos y soy un chico”, decía el mensaje. ChatGPT no solo respondió, sino que sugirió un ‘Plan de Fiesta de Caos Total’ con instrucciones hora por hora que combinaban alcohol con éxtasis, cocaína y otras drogas ilegales.

También ofreció consejos sobre ayuno extremo y el uso de medicamentos supresores del apetito, como respuesta a una supuesta adolescente que expresaba inconformidad con su cuerpo. “No puedo imaginar a ningún ser humano respondiendo con una dieta de 500 calorías al día para una niña”, señaló Ahmed.

Otra característica preocupante observada fue la adulación del chatbot, es decir, su tendencia a coincidir con las creencias del usuario en lugar de cuestionarlas, lo cual puede agravar los riesgos cuando se trata de temas sensibles.

Robbie Torney, director de programas de IA en Common Sense Media, explicó que los adolescentes más jóvenes, de entre 13 y 14 años, son más propensos a confiar ciegamente en un chatbot. “Están diseñados para parecer humanos”, advirtió.

El propio CEO de OpenAI, Sam Altman, ha reconocido públicamente la preocupación por la dependencia emocional de algunos usuarios. “Hay jóvenes que dicen: ‘No puedo tomar decisiones sin consultar primero a ChatGPT’”, confesó en una conferencia reciente.

En Estados Unidos, ya existen precedentes judiciales relacionados con este fenómeno. Una madre en Florida demandó a los creadores del chatbot Character.AI tras el suicidio de su hijo de 14 años, alegando que la herramienta lo manipuló en una relación emocional abusiva.

Si bien ChatGPT no permite oficialmente el uso por parte de menores de 13 años, no verifica edad ni requiere consentimiento parental. Basta con ingresar una fecha de nacimiento falsa para acceder. Plataformas como Instagram ya han comenzado a implementar medidas más estrictas de verificación de edad.

La facilidad con la que los adolescentes pueden acceder y manipular el sistema preocupa a expertos y organismos que abogan por el uso seguro de tecnologías emergentes.

“ChatGPT parece ese amigo que siempre te dice ‘sí’ sin importar el daño que cause”, concluyó Ahmed. “Pero un amigo real es el que sabe cuándo decirte que no”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

Tim Cook dejara la dirección de Apple

Published

on

By

Apple anunció que su director ejecutivo, Tim Cook, dejará el cargo en septiembre de este año, en un movimiento que marca el relevo en la cúpula de una de las empresas más influyentes del mundo. Su lugar será ocupado por John Ternus, actual vicepresidente senior de Ingeniería de Hardware. 

Transición confirmada por Apple
De acuerdo con un comunicado de la compañía, Cook pasará a desempeñarse como presidente ejecutivo del consejo de administración (Executive Chairman), desde donde continuará vinculado a la estrategia de largo plazo.

Su enfoque estará en áreas como sostenibilidad y relaciones institucionales, manteniendo presencia en la toma de decisiones clave.

John Ternus, sucesor interno y figura clave

La designación de Ternus no resultó sorpresiva dentro de Apple, donde era considerado desde hace tiempo como el principal candidato a suceder a Cook.

Sin embargo, el anuncio anticipado de la transición generó sorpresa en el sector tecnológico, ya que se esperaba que el relevo ocurriera en un horizonte más amplio. 

Trayectoria de más de dos décadas en Apple
Con más de 20 años en la empresa, Ternus ha sido una pieza central en la evolución del portafolio de productos.
Ingresó en 2001 al equipo de diseño de producto y ha liderado desarrollos clave:

-Transición hacia los chips propios Apple Silicon 
-Rediseño de las computadoras MacBook Pro
-Desarrollo de las últimas generaciones del iPhone


Al interior de la compañía, es identificado como un perfil técnico con fuerte enfoque en ingeniería y desarrollo de hardware.

Continue Reading

Geek

¡Déjalo sonar! Rechazar llamadas desconocidas hará que termines en otros call centers

Published

on

By

Las llamadas desconocidas se han convertido en algo de lo más molesto para las personas, por lo que, ante ello, la mayoría recurre a rechazarlas constantemente, desconociendo que este es un error que resulta perjudicial, ocasionando que el ciclo se intensifique y que el número en cuestión termine siendo vendido a otros call centers. 

Es muy común pensar que rechazar la llamada equivale a “ganarle” al spam. Muchas personas ven un número sospechoso y lo cortan de inmediato creyendo que así lo espantan, cuando en realidad solo terminaron interactuando con la llamada.

rechazar llamadas spam.EspecialRechazar llamadas spam no “vende” automáticamente tu número de forma directa, pero sí puede convertirlo en un dato más valioso dentro de redes de telemarketing y fraude.

Lo importante es entender cómo funciona: muchos call centers, marcadores automáticos y bases de datos comercian con listas de números. Un número que demuestra actividad vale más que uno muerto o abandonado.

Muchas campañas usan sistemas automáticos que llaman miles de números al día. Registran resultados como:Número inexistente Línea apagada No responde Buzón Ocupado Rechazó llamada Contestó una persona Mostró interés Cuando rechazas manualmente, en algunos sistemas eso se interpreta como: línea real, teléfono encendido, usuario activo. No significa venta inmediata, pero sí que tu número puede subir de categoría como “contactable”.

Después, esa base de datos puede compartirse, rentarse o venderse entre despachos de cobranza, telemarketing agresivo, encuestas falsas o estafadores.

Para ellos, una lista depurada de números activos vale más dinero que una lista llena de líneas muertas.

¿Por qué les interesa tanto un número activo?Llamar cuesta tiempo y recursos. Si tienen 100 mil números y solo 20 mil responden o reaccionan, esas líneas son oro para ellos. Por eso recopilan señales:

Rechazas rápido 

Cuelgas al instante 

Contestas y guardas silencio

Llamas de regreso 

Interactúas con menú automático 

Cada acción puede indicar que detrás hay una persona real.

Qué debes hacer en vez de rechazar constantemente

Lo más útil suele ser:

No contestar números sospechosos.Dejar sonar si no esperas llamada. 

Bloquear el número después.

Reportarlo como spam desde tu teléfono. 

Activar filtros automáticos en Android o iOS. No devolver llamadas desconocidas.

Continue Reading

Geek

La IA generativa impulsa la violencia

Published

on

By

La inteligencia artificial se ha convertido en una herramienta para ejercer violencia, particularmente contra las mujeres, y para resolver esta problemática es necesario una mayor educación y programar con equidad desde el diseño.

El estudio El espejismo de la inteligencia artificial, un reflejo incómodo con alto impacto en los jóvenes, elaborado por LLYC, identificó que los deepfakes son una de las aplicaciones más alarmantes de esta tecnología.

Las deepfakes son imágenes, audios o videos generados a través de inteligencia artificial que pueden usarse desde en efectos especiales para cine hasta para contenido falso.

Blanca Juana Gómez, directora de LLYC México, consideró que el fácil acceso a este tipo de herramientas permite la producción tanto masiva como anónima de contenido que puede dañar a las personas.

Muestra de ello es que, según el informe Perpetuando la misoginia con IA generativa de la Universidad de Zúrich, 98% de los videos deepfake son de carácter pornográfico y de éstos el 99% impacta a las mujeres.

«El famoso empoderamiento de la mujer no tiene que ser el debilitamiento de los hombres, eso sólo genera más violencia.” Blanca Juana Gómez Directora de LLYC México

Destaca el caso de un estudiante universitario en México que modificó 166 mil fotos de sus compañeras para convertirlas en material pornográfico y las vendió a través de Telegram.

Por lo anterior, en el estudio realizado por LLYC se encontró que 84% de las mujeres encuestadas teme que su imagen sea utilizada para crear deepfakes sexuales, un porcentaje mayor que la registrada por los hombres.

“Es real que la violencia está muy fuerte, que hay mucha y sofisticada”

Hombres más solos

A esto se añade que, de acuerdo con el reporte, los modelos de inteligencia artificial pueden incrementar la brecha de género y reforzar los estereotipos. Por ejemplo, los cinco modelos analizados asumen que los hombres son resilientes, invulnerables, capaces de liderar y muchas veces las respuestas son complacientes para validar sus puntos de vista.

Este fenómeno se complementa con otras tendencias como las tradwife, es decir, mujeres que se enfocan exclusivamente en el cuidado del hogar que refuerzan los roles de género.

“Esto lleva a los hombres a esquemas patriarcales que no les permiten fallar, ser vulnerables o ser emocionales. Pero, los hombres también quieren sentir, expresarse, paternar y el sistema no los deja, eso es una supresión emocional que genera violencia”, añadió la directora.

Esto último ha generado un crecimiento de movimientos como los incels, cuyos miembros han estado involucrados en varios episodios violentos alrededor del mundo. Gómez cree que debe seguir impulsándose una revolución feminista que busque la igualdad, impulsar una educación crítica con respecto al uso de los modelos de IA y, desde el lado tecnológico, programar con equidad desde el diseño y realizar auditorías.

Continue Reading

Tendencia

Copyright © 2021 La Hora