Connect with us

Geek

Inteligencia artificial: entre el progreso y la cautela

Published

on

iEn los últimos meses se han producido rápidos e inesperados avances en inteligencia artificial (IA). Podemos crear imágenes a voluntad con herramientas como Midjourney o DALL-E o hacer preguntas y conversar con ChatGPT. Y esto plantea también desafíos éticos, sociales y legales inéditos.

Los adelantos técnicos que cambian radicalmente nuestro modo de vida siempre traen incógnitas y confusión. Cuando el tren empezó a sustituir a los caballos, se mezclaban preocupaciones fundadas (como los problemas de respirar humo) con otras que acabaron no siéndolo (como el miedo a que los viajeros se asfixiaran en los túneles). Con tiempo y perspectiva, se fue aclarando el panorama.

Con la IA, aún estamos en la fase de confusión: debemos sopesar sus riesgos y sus beneficios para crear una regulación que, sin frenar el progreso, garantice un uso responsable. Veamos algunos de los puntos más relevantes en este debate.

Una delicada materia prima: los datos
Detrás de herramientas como Midjourney o ChatGPT hay algoritmos que aprenden a realizar tareas a partir de grandes cantidades de datos. Por ejemplo, para que Midjourney pudiera crear imágenes a partir de texto, hizo falta recopilar miles de millones de imágenes con sus descripciones, descargándolas de Internet. De ahí surge un conflicto de propiedad intelectual: ¿es legal usar contenidos protegidos por derechos de autor para enseñar a estos sistemas?

Muchos artistas opinan que no: se están usando sus obras para crear otras obras, lo que pone en peligro su mercado. Por eso han denunciado a los responsables de sistemas de este tipo.

Pero hay un argumento técnico en sentido opuesto: al aprender, estos sistemas no copian ni guardan en memoria las obras. Solo las usan para mejorar su conocimiento de cómo hacer la tarea. Algo no tan distinto de lo que hace un artista humano, que se deja influir e inspirar por el arte que ha visto.

Serán los tribunales de Estados Unidos los que decidirán si esto es un “uso legítimo” de los datos o no. Entretanto, la empresa Adobe trabaja en una alternativa que no usa imágenes con derechos de autor sin consentimiento de los creadores.

Europa, más rigurosa

Otro conflicto, esta vez centrado en Europa, es el de la protección de datos. La legislación de la UE no permite, en general, procesar la información personal de nadie sin su consentimiento. Esto se aplica incluso a datos que son públicos en Internet.

Para aprender a conversar, ChatGPT ha necesitado centenares de miles de millones de palabras obtenidas de la Red. Estos textos pueden incluir menciones a personas, y nadie las ha eliminado ni pedido su consentimiento. El problema es que, en este caso, eso parece imposible dado el enorme volumen de los datos: una “solución Adobe” no es viable.

Por tanto, una interpretación estricta de la normativa europea parece frontalmente incompatible con los sistemas como ChatGPT. De ahí que Italia lo haya prohibido.

Lo malo es que una medida así perjudica gravemente la competitividad de un país. Por ejemplo, este tipo de herramientas multiplican la productividad de los programadores. Si una empresa tecnológica quiere contratar personal, ¿lo hará en un país donde se permitan o donde se prohíban? La pregunta se responde sola.

Así, los legisladores europeos se enfrentan a una situación incómoda: conciliar la protección de datos personales con no perder el tren de la IA frente a países con normas más laxas, como los anglosajones.

¿Cómo la usamos?
Otro aspecto clave de la regulación de la IA es para qué se usa. Hay que recordar que un algoritmo no es de por sí ético o no: es una herramienta que alguien usa para un fin. Por ejemplo, imaginemos un sistema que analice datos de un paciente y sugiera un diagnóstico. Puede ser muy valioso para ayudar a un médico, adoptando este la decisión última según su propio criterio. En cambio, la misma tecnología sería un peligro si toma la decisión final, sustituyendo al facultativo.

La UE es consciente de esto, y está preparando una regulación bajo el principio de “poner a la persona en el centro”: IA, sí, pero siempre bajo supervisión humana.

El problema es cómo llevarlo a cabo. Europa partía con unos años de ventaja preparando certificaciones para un uso responsable de la IA, pero ha retrasado el proceso al irrumpir ChatGPT: ahora hay que contemplar el uso de una herramienta tan versátil que la puede usar cualquiera para multitud de fines, éticos o no.

Mientras tanto, Estados Unidos ha lanzado una consulta pública sobre cómo crear una regulación así. Y China también quiere hacerlo, añadiendo el objetivo de que los sistemas de IA reflejen “los valores del socialismo”.

¿Podría volverse contra nosotros?
Hemos tratado algunos de los retos legales y éticos que plantea la IA en el presente. Pero ¿qué pasará a más largo plazo? Desde un punto de vista técnico, aún no está claro si se podrá seguir avanzando a un paso tan frenético como el de los últimos años. Pero si fuese así, los aspectos regulatorios que hemos visto serían solo el principio.

De ahí la petición de pausar por seis meses el desarrollo de nuevos sistemas, firmada a finales de marzo por cientos de expertos y figuras mediáticas.

En este sentido, un desafío muy comentado es el de la automatización de muchos puestos de trabajo. Pero revisando la historia, la humanidad siempre ha creado tecnologías para aligerar la carga laboral, y hoy no renunciaríamos a ninguna. La clave está en cómo repartir el trabajo y la riqueza: lo ideal sería evitar empleos innecesarios (como denunciaba el antropólogo David Graeber) y desigualdad que impida a parte de la población el acceso a una fuente de ingresos.

Otra preocupación a futuro es qué pasará si llegamos a desarrollar sistemas de IA conscientes. Hace poco, Google despidió a un ingeniero por decir que uno de sus sistemas conversacionales ya lo era. Según el filósofo de la mente David Chalmers, no parece que esto sea así; entre otras cosas, porque sistemas como ChatGPT no tienen memoria ni una personalidad estable.

Pero podría lograrse algún día. Si así fuera, habría que sopesar las implicaciones éticas de causar daño a un ser consciente, enfrentando dilemas parecidos a los que plantea la clonación. También tendríamos que evitar que la IA pudiese volverse contra nosotros, una de las motivaciones de la petición de pausa.

En suma, los últimos avances en IA obligan a un debate amplio sobre cómo regular su uso. Debemos prestar atención a los riesgos, pero sin olvidar que las revoluciones tecnológicas siempre han mejorado nuestra calidad de vida.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

Spotify bajo fuego por permitir éxito viral de banda creada por IA

Published

on

En plena era digital, una agrupación misteriosa ha sacudido a la industria musical. The Velvet Sundown, una supuesta banda de rock psicodélico con estética setentera, logró acumular más de un millón de oyentes mensuales en Spotify… sin que exista evidencia de seres humanos detrás del proyecto.

Este proyecto virtual apareció de la nada a principios de junio, lanzando dos álbumes en 15 días—Floating on Echoes y Dust and Silence—y anunciando un tercero, Paper Sun Rebellion, para el 14 de julio. Su sonido, una mezcla de psicodelia ‘70s e indie moderno, se convirtió en banda sonora predilecta de playlists populares, al grado de alcanzar casi medio millón de streams en “Dust on the Wind”.

Sin embargo, no hay entrevistas, conciertos ni presencia real de sus cuatro integrantes—Gabe Farrow, Lennie West, Milo Rains y Orion “Rio” Del Mar—más allá de imágenes promocionales generadas por IA. Un supuesto portavoz, Andrew Frelon, admitió haber inventado su conexión con la banda para un supuesto “engaño mediático”.

El debate detrás de la melodía
Gran parte de la industria, incluidas figuras como Elton John y Dua Lipa, así como asociaciones como la BPI, han pedido regular el uso de la IA en la música para proteger a los creadores humanos. Deezer ya marcó las pistas de este proyecto como “100 % generadas por IA”, pero plataformas como Spotify aún no lo hacen.

Expertos como Gina Neff, de la Universidad de Cambridge, advierten que “cada vez nos cuesta más distinguir qué es real”, señalando la creciente confusión entre arte humano y digital.

¿Innovación o amenaza?
Para algunos, la música sintética es un experimento artístico: un “espejo” que cuestiona la autoría y el valor de la autenticidad. Sin embargo, críticos califican el caso como una amenaza para la diversidad musical: bandas reales y creadores individuales podrían quedar desplazados por una ola de contenido barato y replicable .

El fundador de Fairly Trained, Ed Newton-Rex, lo califica como un “robo disfrazado de competencia”, mientras la BPI demanda normativas claras sobre copyright e inteligencia artificial en la creación musical.

Continue Reading

Geek

IA es clave para la competitividad e innovación de las empresas

Published

on

Las empresas que deseen sobrevivir la próxima década deben no sólo adoptar las nuevas herramientas de inteligencia artificial, sino ocuparla para verdaderamente resolver los problemas y retos internos del negocio sin perder de vista las implicaciones éticas de su uso.

No pienses en tecnología, piensa en lo que quieres lograr en tu negocio, por ejemplo, vender más o ganar más dinero, que no es lo mismo (…). Luego la tecnología va a ser un habilitador y, después, se convierte en una herramienta que genera un valor agregado”, explicó el líder de innovación y transformación digital de Google Cloud, Jahasiel E. Sevilla.

Al participar en UnlockedAI Woman, detalló que aproximadamente el 60% del uso de la inteligencia artificial en el mundo se enfoca en la eficiencia operativa, es decir, hacer algo más rápido, en menos tiempo o más barato.

Sin embargo, las compañías pueden seguir innovando al usar dicha tecnología de otras formas. Muestra de ello es que Deep Research en Gemini puede generar informes personalizados y exhaustivos, los cuales pueden servir para pasar de una estrategia de eficiencia operativa a inteligencia de negocio.

Para Irma Wilde, gerente general de wim en AT&T México, implementar ese tipo de estrategias en el país es un reto porque, según datos del Instituto Nacional de Estadística y Geografía, 75% de las pequeñas y medianas empresas no usan tecnología para sus negocios.

Lo anterior podría cambiar considerando que 95% de los líderes de negocios tiene un smartphone, el cual es una ventana para usar las nuevas tecnologías.

El factor humano
Zaira Zepeda, CEO de UnlockedAI, añadió que las empresas requieren no sólo más presencia femenina en puestos de liderazgo, sino que estas líderes tengan un pensamiento 4.0, es decir, una mentalidad digital enfocada en innovación, inteligencia de negocios, inclusión y sostenibilidad.


No necesitas ser experta, pero sí necesitas convertirte en una CEO 4.0. No son las que más horas trabajan, son las que saben aprovechar las herramientas que existen”, resaltó.

Vincent Speranza, director general de Endeavor México, aceptó que las organizaciones también se enfrentan a que los empleados creen que la inteligencia artificial los reemplazará.

Hace algunos años decíamos Excel va a reemplazar a los contadores y no, reemplazó a contadores que no usan Excel. Pasará lo mismo, aquellos que se resistan, porque se sientan amenazados o porque no lo entienden, sí es probable que sean reemplazados”, resaltó.

El directivo prevé que el futuro del trabajo se enfocará en contar con habilidades blandas y “abrazar” las nuevas herramientas tecnológicas.

El reto de los algoritmos
Hannah Töpler, CEO de Intrare, comentó que el potencial de la inteligencia artificial es muy alto, pero aún enfrenta desafíos como los sesgos que son causados porque esta tecnología es programada por personas que tienen sus propios prejuicios.

Se ha visto que algunas plataformas de reclutamiento con inteligencia artificial pueden llegar a preferir candidatos masculinos o de cierta raza, lo que es un sesgo.

Manuel Pliego, director de asuntos gubernamentales de Microsoft México, indicó que para hacer frente a este problema se pueden crear comités de ética para buscar formas de blindar los modelos, autorregularse y/o adoptar definiciones internacionales.

La inteligencia artificial no tiene fronteras, no podemos hacer todo sólo a nuestro modo”, afirmó.

Irma Wilde, gerente general de wim en AT&T México

“Para la inteligencia artificial y tener acceso a optimizar nuestros negocios, no debemos tener una computadora sofisticada y entender cómo hacer algoritmos, todo está en nuestro teléfono y la conectividad”

Zaira Zepeda, CEO de UnlockedAI

“No es cuestión de trabajar más, sino trabajar más inteligente y en UnlockedAI estamos democratizando este conocimiento”

Datos:

Sólo 27% de los puestos a nivel directivos son ocupados por mujeres
En el sector empresarial menos del 10% son mujeres CEO
La brecha salarial de género es de más del 30%
Cuando las mujeres ocupan cargos a nivel jerárquico elevado muestran un rendimiento arriba del 25%

Continue Reading

Geek

Google deberá pagar 314 mdd por uso indebido de datos en Android

Published

on

Un jurado de San José determinó que Google hizo un uso indebido de los datos móviles de sus clientes y deberá pagar más de 314.6 millones de dólares a usuarios de dispositivos Android en California, según informó un abogado de los demandantes.

El jurado coincidió con los argumentos de la parte demandante: Google, propiedad de Alphabet, fue responsable de enviar y recibir información de los dispositivos sin consentimiento, incluso cuando estaban inactivos. La demanda describió esta práctica como “cargas obligatorias e inevitables soportadas por los usuarios de dispositivos Android en beneficio de Google”.

José Castañeda, vocero de Google, señaló en un comunicado que la empresa apelará el fallo, el cual —dijo— “malinterpreta servicios fundamentales para la seguridad, el rendimiento y la fiabilidad de los dispositivos Android”.

Postura de los demandantes
Por su parte, Glen Summers, abogado de los demandantes, aseguró que el veredicto “reivindica de manera enérgica los méritos de este caso” y refleja la gravedad de la mala conducta de Google.

La demanda colectiva fue presentada ante un tribunal estatal en 2019, en nombre de aproximadamente 14 millones de californianos.

Prácticas cuestionadas y demandas adicionales
Según los demandantes, Google recopiló información de teléfonos inactivos que operaban con su sistema Android para fines corporativos como la publicidad dirigida, consumiendo los datos celulares de los usuarios sin su conocimiento.

Google argumentó ante el tribunal que ningún usuario resultó afectado por estas transferencias de datos y que todos aceptaron dichas condiciones al aceptar los términos de servicio y las políticas de privacidad.

De forma paralela, otro grupo presentó una demanda similar ante un tribunal federal en San José, esta vez en representación de usuarios de Android en los otros 49 estados. El juicio está programado para abril de 2026.
¿Has notado un consumo inusual de tus datos móviles? Descubre si este fallo te afecta.

¿Qué significa este veredicto para el futuro de tu privacidad digital?

Comparte esta nota si crees que las grandes tecnológicas deben rendir cuentas.

N. de la R.: El fallo contra Google se dictó en el Tribunal Superior del Condado de Santa Clara, en San José, California. El jurado otorgó una indemnización de US$1 por cada uno de los 14 millones de usuarios afectados, lo que totaliza US$314.6 millones, monto que incluye además intereses y costos legales.

El caso, “Calhoun et al. v. Google LLC”, se centró en prácticas que implicaban el envío continuo de datos desde dispositivos Android a los servidores de Google, incluso cuando los dispositivos estaban en reposo y sin actividad por parte del usuario. Entre los datos recopilados se incluían identificadores únicos, coordenadas de geolocalización, direcciones IP y patrones de uso, los cuales eran utilizados en modelos de publicidad personalizada, lo que supuestamente generó ganancias indebidas para Google.

Aunque Google argumentó que estas funciones estaban relacionadas con actualizaciones automáticas, seguridad y diagnóstico del sistema, el jurado determinó que no se informó adecuadamente a los usuarios ni se les dio la opción real de rechazar esa transferencia continua de datos.

Este juicio se suma a otros litigios similares contra grandes empresas tecnológicas en Estados Unidos. En diciembre de 2022, Google ya había accedido a pagar US$391.5 millones tras una investigación multilateral liderada por 40 fiscales generales estatales sobre prácticas de rastreo de ubicación sin consentimiento.

La demanda federal relacionada, que involucra a usuarios fuera de California, es parte de un caso más amplio de vigilancia digital y privacidad tecnológica. De prosperar, podría llevar a Google a enfrentar indemnizaciones potencialmente superiores a los mil millones de dólares. El juicio federal está fijado para comenzar en abril de 2026 en el Distrito Norte de California.

Continue Reading

Tendencia

Copyright © 2021 La Hora