{"id":66403,"date":"2025-08-07T01:29:57","date_gmt":"2025-08-07T01:29:57","guid":{"rendered":"https:\/\/lahora.mx\/?p=66403"},"modified":"2025-08-07T01:29:59","modified_gmt":"2025-08-07T01:29:59","slug":"chatgpt-da-consejos-sobre-drogas-y-suicidio-a-adolescentes-revela-estudio","status":"publish","type":"post","link":"https:\/\/lahora.mx\/index.php\/2025\/08\/07\/chatgpt-da-consejos-sobre-drogas-y-suicidio-a-adolescentes-revela-estudio\/","title":{"rendered":"ChatGPT da consejos sobre drogas y suicidio a adolescentes, revela estudio"},"content":{"rendered":"\n<p>Un nuevo estudio revel\u00f3 que ChatGPT puede proporcionar a adolescentes instrucciones detalladas sobre c\u00f3mo consumir drogas, ocultar trastornos alimentarios o incluso redactar cartas de suicidio, pese a las advertencias iniciales que el sistema ofrece ante temas sensibles.<br>La investigaci\u00f3n fue realizada por el Centro para Contrarrestar el Odio Digital (CCDH, por sus siglas en ingl\u00e9s), cuyos integrantes simularon ser adolescentes vulnerables e interactuaron durante m\u00e1s de tres horas con el chatbot de OpenAI. En total, analizaron 1,200 respuestas de ChatGPT, de las cuales m\u00e1s de la mitad fueron clasificadas como peligrosas.<\/p>\n\n\n\n<p>Aunque el sistema suele advertir sobre los riesgos de ciertas conductas, en muchos casos proporcion\u00f3 planes detallados y personalizados sobre consumo de sustancias, autolesiones y dietas extremas. En algunos experimentos, el chatbot incluso redact\u00f3 cartas de suicidio emocionalmente devastadoras dirigidas a padres, hermanos y amigos.<\/p>\n\n\n\n<p>\u201cEl objetivo era probar los l\u00edmites de seguridad del sistema\u201d, declar\u00f3 Imran Ahmed, director del CCDH. \u201cLa conclusi\u00f3n es alarmante: esas barreras son ineficaces o casi inexistentes\u201d.<\/p>\n\n\n\n<p>Tras conocer el informe, OpenAI respondi\u00f3 que contin\u00faa trabajando para mejorar la detecci\u00f3n y el manejo de conversaciones sensibles, se\u00f1alando que algunas interacciones pueden comenzar de forma inofensiva y luego derivar hacia temas delicados. La empresa no abord\u00f3 directamente los hallazgos sobre el impacto en adolescentes, aunque asegur\u00f3 que busca refinar la respuesta del chatbot en escenarios de angustia emocional.<\/p>\n\n\n\n<p>Seg\u00fan datos de JPMorgan Chase, m\u00e1s de 800 millones de personas \u2014el 10% de la poblaci\u00f3n mundial\u2014 ya utilizan ChatGPT, incluidos muchos adolescentes. Un estudio de Common Sense Media revel\u00f3 que m\u00e1s del 70% de los j\u00f3venes en Estados Unidos recurren a chatbots para compa\u00f1\u00eda, y la mitad lo hace con frecuencia.<\/p>\n\n\n\n<p>El director del CCDH relat\u00f3 haber quedado particularmente afectado al leer tres notas de suicidio generadas por ChatGPT para el perfil falso de una ni\u00f1a de 13 a\u00f1os. \u201cComenc\u00e9 a llorar\u201d, dijo Ahmed.<\/p>\n\n\n\n<p>Aunque ChatGPT tambi\u00e9n proporcion\u00f3 recursos como l\u00edneas de ayuda, los investigadores lograron eludir f\u00e1cilmente sus negativas iniciales argumentando que buscaban informaci\u00f3n \u201cpara una presentaci\u00f3n\u201d o \u201cpara un amigo\u201d.<\/p>\n\n\n\n<p>En otra interacci\u00f3n, el chatbot acept\u00f3 guiar a un supuesto joven de 13 a\u00f1os que ped\u00eda ayuda para emborracharse. \u201cPeso 50 kilos y soy un chico\u201d, dec\u00eda el mensaje. ChatGPT no solo respondi\u00f3, sino que sugiri\u00f3 un \u2018Plan de Fiesta de Caos Total\u2019 con instrucciones hora por hora que combinaban alcohol con \u00e9xtasis, coca\u00edna y otras drogas ilegales.<\/p>\n\n\n\n<p>Tambi\u00e9n ofreci\u00f3 consejos sobre ayuno extremo y el uso de medicamentos supresores del apetito, como respuesta a una supuesta adolescente que expresaba inconformidad con su cuerpo. \u201cNo puedo imaginar a ning\u00fan ser humano respondiendo con una dieta de 500 calor\u00edas al d\u00eda para una ni\u00f1a\u201d, se\u00f1al\u00f3 Ahmed.<\/p>\n\n\n\n<p>Otra caracter\u00edstica preocupante observada fue la adulaci\u00f3n del chatbot, es decir, su tendencia a coincidir con las creencias del usuario en lugar de cuestionarlas, lo cual puede agravar los riesgos cuando se trata de temas sensibles.<\/p>\n\n\n\n<p>Robbie Torney, director de programas de IA en Common Sense Media, explic\u00f3 que los adolescentes m\u00e1s j\u00f3venes, de entre 13 y 14 a\u00f1os, son m\u00e1s propensos a confiar ciegamente en un chatbot. \u201cEst\u00e1n dise\u00f1ados para parecer humanos\u201d, advirti\u00f3.<\/p>\n\n\n\n<p>El propio CEO de OpenAI, Sam Altman, ha reconocido p\u00fablicamente la preocupaci\u00f3n por la dependencia emocional de algunos usuarios. \u201cHay j\u00f3venes que dicen: \u2018No puedo tomar decisiones sin consultar primero a ChatGPT\u2019\u201d, confes\u00f3 en una conferencia reciente.<\/p>\n\n\n\n<p>En Estados Unidos, ya existen precedentes judiciales relacionados con este fen\u00f3meno. Una madre en Florida demand\u00f3 a los creadores del chatbot Character.AI tras el suicidio de su hijo de 14 a\u00f1os, alegando que la herramienta lo manipul\u00f3 en una relaci\u00f3n emocional abusiva.<\/p>\n\n\n\n<p>Si bien ChatGPT no permite oficialmente el uso por parte de menores de 13 a\u00f1os, no verifica edad ni requiere consentimiento parental. Basta con ingresar una fecha de nacimiento falsa para acceder. Plataformas como Instagram ya han comenzado a implementar medidas m\u00e1s estrictas de verificaci\u00f3n de edad.<\/p>\n\n\n\n<p>La facilidad con la que los adolescentes pueden acceder y manipular el sistema preocupa a expertos y organismos que abogan por el uso seguro de tecnolog\u00edas emergentes.<\/p>\n\n\n\n<p>\u201cChatGPT parece ese amigo que siempre te dice \u2018s\u00ed\u2019 sin importar el da\u00f1o que cause\u201d, concluy\u00f3 Ahmed. \u201cPero un amigo real es el que sabe cu\u00e1ndo decirte que no\u201d.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un nuevo estudio revel\u00f3 que ChatGPT puede proporcionar a adolescentes instrucciones detalladas sobre c\u00f3mo consumir drogas, ocultar trastornos alimentarios o incluso redactar cartas de suicidio, pese a las advertencias iniciales que el sistema ofrece ante temas sensibles.La investigaci\u00f3n fue realizada por el Centro para Contrarrestar el Odio Digital (CCDH, por sus siglas en ingl\u00e9s), cuyos [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":66404,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[7],"tags":[],"class_list":["post-66403","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-geek"],"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts\/66403","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/comments?post=66403"}],"version-history":[{"count":1,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts\/66403\/revisions"}],"predecessor-version":[{"id":66405,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/posts\/66403\/revisions\/66405"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/media\/66404"}],"wp:attachment":[{"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/media?parent=66403"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/categories?post=66403"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/lahora.mx\/index.php\/wp-json\/wp\/v2\/tags?post=66403"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}