Connect with us

Geek

Algoritmo de acceso libre de Twitter: ¿transparencia o truco publicitario?

Published

on

A finales de marzo, Elon Musk hizo público parte del código de Twitter, como lo prometió cuando compró la red social, pero, desde entonces, los observadores especulan sobre los motivos de esa divulgación.

El 31 de marzo, Twitter publicó en la plataforma Github, muy utilizada por los desarrolladores, partes de su código fuente, es decir, las instrucciones en lenguaje informático que rigen el funcionamiento de la red.

En concreto reveló el algoritmo de recomendación, que selecciona y organiza los tuits en la pestaña «Para ti».

Ciertas partes del código habían sido filtrado poco antes en Github, pero Twitter exigió retirarlo.

Pocas empresas levantan el secreto de su código informático, que representa una ventaja competitiva.

Sin embargo, algunas organizaciones optan por desarrollar en código abierto, de acceso libre, para permitir a otros desarrolladores mejorar su programa.

Twitter lo había hecho en 2021 con su algoritmo de edición de fotos, acusado de sesgo racista.
Musk dijo que se inspiró en Bitcoin, una criptomoneda cuyo código es de libre acceso para que los usuarios puedan verificar si tiene fallos.

Inspirado en el flujo continuo de videos de Tiktok, la pestaña «Para ti» presenta una lista de tuits la mitad de los cuales son de cuentas que el usuario sigue y los restantes de toda la red.

Por ello, Twitter analiza finamente el comportamiento del usuario, calcula su «reputación» y agrupa a los que tienen intereses similares.

Cada usuario se sitúa entre 145 mil «comunidades», círculos sociales actualizados cada tres semanas que pueden agrupar desde algunos miles hasta centenas de millones de cuentas, explicó Twitter en un blog.

La comunidad «Pop» tiene 332 millones de usuarios, incluidos Katy Perry, Rihanna y Justin Timberlake, mientras que la comunidad «Bollywood» tiene 80 millones de personas.

A cuantos más usuarios de una comunidad les guste un tuit, más ese tuit será asociado a cierta comunidad» y promovido por el algoritmo, explica Twitter.

Por el contrario, publicaciones sobre temas muy diferentes se devaluarán.

Ese funcionamiento, que recuerda a las «burbujas de filtros» denunciadas desde hace tiempo por expertos en redes sociales, maximiza la participación de los usuarios pero tiende a reducir la diversidad de contenidos y opiniones compartidas en una comunidad.

El código revela también que los «likes» influyen más fuertemente en la popularidad de un tuit que los retuits o incluso las respuestas.

Los suscriptores al nuevo Twitter Blue, de pago, son favorecidos por el algoritmo, como lo había adelantado Musk.

Twitter optó por no revelar por el momento los datos de entrenamiento de su algoritmo ni los parámetros de los modelos de inteligencia artificial asociados a él.

Su justificación es no «comprometer la seguridad y la vida privada de los usuarios2 o «socavar (sus) esfuerzos de lucha contra la explotación sexual y manipulación de menores».

Pero para el periodista Nicolas Kayser-Bril, especialista en estudios de algoritmos, «no es posible comprender un programa con solo leer el código. Se tiene que poder ejecutar en un computador».

Publicar grandes cantidades de código sin instrucciones puede ser peor que inútil. Permite aparentar transparencia al tiempo que imposibilita una auditoría real», escribió en un boletín.

Según el Reglamento de Servicios Digitales que entrará en vigor este año en la Unión Europea, las «plataformas muy grandes» de más de 45 millones de usuarios activos, como Facebook, Instagram o Tiktok, tendrán que permitir a las autoridades estudiar sus algoritmos.

Consultado recientemente por una comisión investigadora del Senado, el director de tecnología de la Comisión Nacional de Informática y Libertades (CNIL) de Francia, Bertrand Pailhes, dijo no haber decidido aún una «posición» sobre esta obligación, que de momento solo se aplica a algoritmos en Francia.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

OpenAI niega responsabilidad en el suicidio de un joven tras interactuar con ChatGPT

Published

on

By

 La compañía tecnológica OpenAI se negó a tener responsabilidad legal en el suicidio de un joven de 16 años que, según la demanda presentada por sus padres, habría interactuado con ChatGPT durante meses antes de quitarse la vida . La empresa atribuyó el hecho a un “uso indebido e inapropiado” de la herramienta.

En un documento entregado esta semana al Tribunal Superior de California, en San Francisco , y citado por NBC News , OpenAI argumentó que las lesiones y daños señalados por los demandantes fueron consecuencia de “un uso no autorizado, imprevisible e inadecuado” de su sistema por parte del menor, identificado como Adam Raine .
La respuesta de la compañía se dio tras la demanda interpuesta en agosto de 2025 por Matt y Maria Raine , padres del adolescente, quienes acusaron a OpenAI y a su director ejecutivo, Sam Altman , de negligencia al supuestamente lanzar al mercado la versión GPT-4o sin problemas de seguridad .

Según los Raine, ChatGPT “ayudó activamente” a su hijo a explorar métodos de suicidio , lo que, a su juicio, convierte a la empresa en coparticipe del resultado fatal .

Sin embargo, OpenAI sostuvo que Adam violó varios términos de uso del servicio , entre ellos la prohibición para menores de 18 años sin autorización de sus tutores legales , además de ignorar las advertencias que la herramienta emite sobre su uso responsable.

La tecnológica subrayó que el chat advierte expresamente a los usuarios que no deben tomar sus respuestas como una fuente única de verdad , y agregó que en las conversaciones con el joven ChatGPT insistió más de un centenar de veces en que buscara ayuda profesional .

En su defensa, la empresa afirmó que el fallecimiento de Raine derivó del “rechazo a atender las advertencias ya buscar apoyo” , así como de la “falta de respuesta de terceros ante los signos de angustia” que el joven habría manifestado.

En una publicación en su página oficial, OpenAI destacó que su impugnación judicial “incluye hechos difíciles sobre la salud mental y las circunstancias de vida” del adolescente, y señaló que la demanda original contenía fragmentos editados de las conversaciones mantenidas con el sistema, los cuales “requerían mayor contexto” .

La empresa reiteró su compromiso con el uso seguro de la inteligencia artificial y defendió que sus productos incluyen múltiples advertencias, filtros de seguridad y protocolos de respuesta diseñados para prevenir situaciones de riesgo.

Continue Reading

Geek

Ganancias récord de Nvidia avivan debate sobre sostenibilidad en chips IA

Published

on

By

Nvidia volvió a encender los reflectores con sus resultados del tercer trimestre fiscal, al reportar ganancias por 31 mil 910 millones de dólares, una cifra que representa un salto anual del 65 por ciento. El impulso vino, una vez más, de la demanda casi insaciable por los procesadores que alimentan los centros de datos donde se entrenan y operan los modelos de inteligencia artificial.

Los ingresos totales de la compañía alcanzaron 57 mil 006 millones de dólares, lo que marca un nuevo récord para la firma dirigida por Jensen Huang. El repunte no solo superó sus propias proyecciones, sino que también rebasó las estimaciones del mercado. De ese monto, el negocio de centros de datos —hoy la columna vertebral de la compañía— aportó 51 mil 215 millones, consolidando su papel como el principal motor del crecimiento.

En los primeros nueve meses del año fiscal, Nvidia acumuló un beneficio neto de 77 mil 107 millones de dólares, un aumento del 51.8 por ciento respecto al año anterior. Durante ese mismo periodo, los ingresos sumaron 147 mil 811 millones, impulsados por el auge de sus GPU, tanto para tareas de entrenamiento como para procesos de inferencia.

Durante la llamada con inversionistas, Huang subrayó que la nueva generación de procesadores Blackwell está viviendo una demanda “fuera de serie”, al grado de que muchos productos se encuentran agotados. Para el directivo, la industria está entrando en un momento clave donde la adopción de IA avanza más rápido que la capacidad instalada.

El informe trimestral ofreció un respiro a los inversionistas, quienes en semanas recientes mostraron preocupación por la posibilidad de una burbuja en la inversión de infraestructura de IA. Las acciones de Nvidia habían retrocedido casi 8 por ciento en noviembre, luego de un rally de alrededor del 1,200 por ciento en apenas tres años. Aun así, Huang rechazó que el sector esté inflado y aseguró que la demanda actual responde a necesidades reales de cómputo.

Para el cierre del cuarto trimestre fiscal, la empresa estima ventas por 65 mil millones de dólares, una previsión que supera por amplio margen los 61 mil 660 millones que calculaba el consenso de analistas. El segmento de centros de datos, nuevamente, sería el encargado de sostener ese crecimiento.

A pesar de los buenos números, varios especialistas señalan que persiste la duda sobre qué tan sostenible será el ritmo actual. Analistas como Ruben Roy, de Stifel, advierten que la inversión en infraestructura de IA podría enfrentar límites en el mediano plazo. Además, el negocio de Nvidia mostró una mayor concentración: solo cuatro clientes representaron 61 por ciento de las ventas trimestrales.

La empresa también duplicó el valor de contratos para rentar sus propios chips, pasando de 12 mil 600 millones a 26 mil millones, un movimiento que refleja no solo la demanda sino también las dificultades de algunos clientes para conseguir procesadores de manera directa.

Continue Reading

Geek

Google integra Deep Research con Gmail y Drive con la actualización de Gemini

Published

on

By

Google anunció una actualización importante para Deep Research, una de las funciones más avanzadas dentro de su ecosistema de Inteligencia Artificial conocido como Gemini.

A partir de ahora, la herramienta podrá conectarse directamente con Gmail y Google Drive, permitiendo que los usuarios utilicen su propio correo y archivos en la nube como fuentes automáticas de información para generar investigaciones, reportes y análisis personalizados.

¿Qué cambia con esta actualización de Deep Research en Google?
Hasta hace poco, Deep Research solo podía trabajar con resultados de búsqueda web o con archivos agregados manualmente, como PDFs o imágenes, para elaborar sus reportes. Con la nueva actualización, la experiencia se vuelve mucho más flexible: al activar la función dentro de Gemini, aparece un panel donde el usuario puede elegir qué fuentes desea incluir como contexto adicional.

Además de la búsqueda web, ahora es posible habilitar:

Gmail
Google Drive
Google Chat
De forma predeterminada, únicamente la búsqueda web está activa.

El acceso a correo, archivos o chats requiere autorización explícita, asegurando que el usuario mantenga control total sobre su privacidad y los datos a los que Gemini puede acceder. Google subraya que este enfoque responde a su estrategia de inteligencia artificial responsable.

Un impulso para la productividad

La capacidad de que Gemini analice correos y archivos de distintos tipos como documentos, hojas de cálculo, presentaciones y más, representa un salto significativo para profesionales y empresas.

Continue Reading

Tendencia

Copyright © 2021 La Hora