Connect with us

Geek

Inteligencia artificial: entre el progreso y la cautela

Published

on

iEn los últimos meses se han producido rápidos e inesperados avances en inteligencia artificial (IA). Podemos crear imágenes a voluntad con herramientas como Midjourney o DALL-E o hacer preguntas y conversar con ChatGPT. Y esto plantea también desafíos éticos, sociales y legales inéditos.

Los adelantos técnicos que cambian radicalmente nuestro modo de vida siempre traen incógnitas y confusión. Cuando el tren empezó a sustituir a los caballos, se mezclaban preocupaciones fundadas (como los problemas de respirar humo) con otras que acabaron no siéndolo (como el miedo a que los viajeros se asfixiaran en los túneles). Con tiempo y perspectiva, se fue aclarando el panorama.

Con la IA, aún estamos en la fase de confusión: debemos sopesar sus riesgos y sus beneficios para crear una regulación que, sin frenar el progreso, garantice un uso responsable. Veamos algunos de los puntos más relevantes en este debate.

Una delicada materia prima: los datos
Detrás de herramientas como Midjourney o ChatGPT hay algoritmos que aprenden a realizar tareas a partir de grandes cantidades de datos. Por ejemplo, para que Midjourney pudiera crear imágenes a partir de texto, hizo falta recopilar miles de millones de imágenes con sus descripciones, descargándolas de Internet. De ahí surge un conflicto de propiedad intelectual: ¿es legal usar contenidos protegidos por derechos de autor para enseñar a estos sistemas?

Muchos artistas opinan que no: se están usando sus obras para crear otras obras, lo que pone en peligro su mercado. Por eso han denunciado a los responsables de sistemas de este tipo.

Pero hay un argumento técnico en sentido opuesto: al aprender, estos sistemas no copian ni guardan en memoria las obras. Solo las usan para mejorar su conocimiento de cómo hacer la tarea. Algo no tan distinto de lo que hace un artista humano, que se deja influir e inspirar por el arte que ha visto.

Serán los tribunales de Estados Unidos los que decidirán si esto es un “uso legítimo” de los datos o no. Entretanto, la empresa Adobe trabaja en una alternativa que no usa imágenes con derechos de autor sin consentimiento de los creadores.

Europa, más rigurosa

Otro conflicto, esta vez centrado en Europa, es el de la protección de datos. La legislación de la UE no permite, en general, procesar la información personal de nadie sin su consentimiento. Esto se aplica incluso a datos que son públicos en Internet.

Para aprender a conversar, ChatGPT ha necesitado centenares de miles de millones de palabras obtenidas de la Red. Estos textos pueden incluir menciones a personas, y nadie las ha eliminado ni pedido su consentimiento. El problema es que, en este caso, eso parece imposible dado el enorme volumen de los datos: una “solución Adobe” no es viable.

Por tanto, una interpretación estricta de la normativa europea parece frontalmente incompatible con los sistemas como ChatGPT. De ahí que Italia lo haya prohibido.

Lo malo es que una medida así perjudica gravemente la competitividad de un país. Por ejemplo, este tipo de herramientas multiplican la productividad de los programadores. Si una empresa tecnológica quiere contratar personal, ¿lo hará en un país donde se permitan o donde se prohíban? La pregunta se responde sola.

Así, los legisladores europeos se enfrentan a una situación incómoda: conciliar la protección de datos personales con no perder el tren de la IA frente a países con normas más laxas, como los anglosajones.

¿Cómo la usamos?
Otro aspecto clave de la regulación de la IA es para qué se usa. Hay que recordar que un algoritmo no es de por sí ético o no: es una herramienta que alguien usa para un fin. Por ejemplo, imaginemos un sistema que analice datos de un paciente y sugiera un diagnóstico. Puede ser muy valioso para ayudar a un médico, adoptando este la decisión última según su propio criterio. En cambio, la misma tecnología sería un peligro si toma la decisión final, sustituyendo al facultativo.

La UE es consciente de esto, y está preparando una regulación bajo el principio de “poner a la persona en el centro”: IA, sí, pero siempre bajo supervisión humana.

El problema es cómo llevarlo a cabo. Europa partía con unos años de ventaja preparando certificaciones para un uso responsable de la IA, pero ha retrasado el proceso al irrumpir ChatGPT: ahora hay que contemplar el uso de una herramienta tan versátil que la puede usar cualquiera para multitud de fines, éticos o no.

Mientras tanto, Estados Unidos ha lanzado una consulta pública sobre cómo crear una regulación así. Y China también quiere hacerlo, añadiendo el objetivo de que los sistemas de IA reflejen “los valores del socialismo”.

¿Podría volverse contra nosotros?
Hemos tratado algunos de los retos legales y éticos que plantea la IA en el presente. Pero ¿qué pasará a más largo plazo? Desde un punto de vista técnico, aún no está claro si se podrá seguir avanzando a un paso tan frenético como el de los últimos años. Pero si fuese así, los aspectos regulatorios que hemos visto serían solo el principio.

De ahí la petición de pausar por seis meses el desarrollo de nuevos sistemas, firmada a finales de marzo por cientos de expertos y figuras mediáticas.

En este sentido, un desafío muy comentado es el de la automatización de muchos puestos de trabajo. Pero revisando la historia, la humanidad siempre ha creado tecnologías para aligerar la carga laboral, y hoy no renunciaríamos a ninguna. La clave está en cómo repartir el trabajo y la riqueza: lo ideal sería evitar empleos innecesarios (como denunciaba el antropólogo David Graeber) y desigualdad que impida a parte de la población el acceso a una fuente de ingresos.

Otra preocupación a futuro es qué pasará si llegamos a desarrollar sistemas de IA conscientes. Hace poco, Google despidió a un ingeniero por decir que uno de sus sistemas conversacionales ya lo era. Según el filósofo de la mente David Chalmers, no parece que esto sea así; entre otras cosas, porque sistemas como ChatGPT no tienen memoria ni una personalidad estable.

Pero podría lograrse algún día. Si así fuera, habría que sopesar las implicaciones éticas de causar daño a un ser consciente, enfrentando dilemas parecidos a los que plantea la clonación. También tendríamos que evitar que la IA pudiese volverse contra nosotros, una de las motivaciones de la petición de pausa.

En suma, los últimos avances en IA obligan a un debate amplio sobre cómo regular su uso. Debemos prestar atención a los riesgos, pero sin olvidar que las revoluciones tecnológicas siempre han mejorado nuestra calidad de vida.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Geek

Tim Cook dejara la dirección de Apple

Published

on

By

Apple anunció que su director ejecutivo, Tim Cook, dejará el cargo en septiembre de este año, en un movimiento que marca el relevo en la cúpula de una de las empresas más influyentes del mundo. Su lugar será ocupado por John Ternus, actual vicepresidente senior de Ingeniería de Hardware. 

Transición confirmada por Apple
De acuerdo con un comunicado de la compañía, Cook pasará a desempeñarse como presidente ejecutivo del consejo de administración (Executive Chairman), desde donde continuará vinculado a la estrategia de largo plazo.

Su enfoque estará en áreas como sostenibilidad y relaciones institucionales, manteniendo presencia en la toma de decisiones clave.

John Ternus, sucesor interno y figura clave

La designación de Ternus no resultó sorpresiva dentro de Apple, donde era considerado desde hace tiempo como el principal candidato a suceder a Cook.

Sin embargo, el anuncio anticipado de la transición generó sorpresa en el sector tecnológico, ya que se esperaba que el relevo ocurriera en un horizonte más amplio. 

Trayectoria de más de dos décadas en Apple
Con más de 20 años en la empresa, Ternus ha sido una pieza central en la evolución del portafolio de productos.
Ingresó en 2001 al equipo de diseño de producto y ha liderado desarrollos clave:

-Transición hacia los chips propios Apple Silicon 
-Rediseño de las computadoras MacBook Pro
-Desarrollo de las últimas generaciones del iPhone


Al interior de la compañía, es identificado como un perfil técnico con fuerte enfoque en ingeniería y desarrollo de hardware.

Continue Reading

Geek

¡Déjalo sonar! Rechazar llamadas desconocidas hará que termines en otros call centers

Published

on

By

Las llamadas desconocidas se han convertido en algo de lo más molesto para las personas, por lo que, ante ello, la mayoría recurre a rechazarlas constantemente, desconociendo que este es un error que resulta perjudicial, ocasionando que el ciclo se intensifique y que el número en cuestión termine siendo vendido a otros call centers. 

Es muy común pensar que rechazar la llamada equivale a “ganarle” al spam. Muchas personas ven un número sospechoso y lo cortan de inmediato creyendo que así lo espantan, cuando en realidad solo terminaron interactuando con la llamada.

rechazar llamadas spam.EspecialRechazar llamadas spam no “vende” automáticamente tu número de forma directa, pero sí puede convertirlo en un dato más valioso dentro de redes de telemarketing y fraude.

Lo importante es entender cómo funciona: muchos call centers, marcadores automáticos y bases de datos comercian con listas de números. Un número que demuestra actividad vale más que uno muerto o abandonado.

Muchas campañas usan sistemas automáticos que llaman miles de números al día. Registran resultados como:Número inexistente Línea apagada No responde Buzón Ocupado Rechazó llamada Contestó una persona Mostró interés Cuando rechazas manualmente, en algunos sistemas eso se interpreta como: línea real, teléfono encendido, usuario activo. No significa venta inmediata, pero sí que tu número puede subir de categoría como “contactable”.

Después, esa base de datos puede compartirse, rentarse o venderse entre despachos de cobranza, telemarketing agresivo, encuestas falsas o estafadores.

Para ellos, una lista depurada de números activos vale más dinero que una lista llena de líneas muertas.

¿Por qué les interesa tanto un número activo?Llamar cuesta tiempo y recursos. Si tienen 100 mil números y solo 20 mil responden o reaccionan, esas líneas son oro para ellos. Por eso recopilan señales:

Rechazas rápido 

Cuelgas al instante 

Contestas y guardas silencio

Llamas de regreso 

Interactúas con menú automático 

Cada acción puede indicar que detrás hay una persona real.

Qué debes hacer en vez de rechazar constantemente

Lo más útil suele ser:

No contestar números sospechosos.Dejar sonar si no esperas llamada. 

Bloquear el número después.

Reportarlo como spam desde tu teléfono. 

Activar filtros automáticos en Android o iOS. No devolver llamadas desconocidas.

Continue Reading

Geek

La IA generativa impulsa la violencia

Published

on

By

La inteligencia artificial se ha convertido en una herramienta para ejercer violencia, particularmente contra las mujeres, y para resolver esta problemática es necesario una mayor educación y programar con equidad desde el diseño.

El estudio El espejismo de la inteligencia artificial, un reflejo incómodo con alto impacto en los jóvenes, elaborado por LLYC, identificó que los deepfakes son una de las aplicaciones más alarmantes de esta tecnología.

Las deepfakes son imágenes, audios o videos generados a través de inteligencia artificial que pueden usarse desde en efectos especiales para cine hasta para contenido falso.

Blanca Juana Gómez, directora de LLYC México, consideró que el fácil acceso a este tipo de herramientas permite la producción tanto masiva como anónima de contenido que puede dañar a las personas.

Muestra de ello es que, según el informe Perpetuando la misoginia con IA generativa de la Universidad de Zúrich, 98% de los videos deepfake son de carácter pornográfico y de éstos el 99% impacta a las mujeres.

«El famoso empoderamiento de la mujer no tiene que ser el debilitamiento de los hombres, eso sólo genera más violencia.” Blanca Juana Gómez Directora de LLYC México

Destaca el caso de un estudiante universitario en México que modificó 166 mil fotos de sus compañeras para convertirlas en material pornográfico y las vendió a través de Telegram.

Por lo anterior, en el estudio realizado por LLYC se encontró que 84% de las mujeres encuestadas teme que su imagen sea utilizada para crear deepfakes sexuales, un porcentaje mayor que la registrada por los hombres.

“Es real que la violencia está muy fuerte, que hay mucha y sofisticada”

Hombres más solos

A esto se añade que, de acuerdo con el reporte, los modelos de inteligencia artificial pueden incrementar la brecha de género y reforzar los estereotipos. Por ejemplo, los cinco modelos analizados asumen que los hombres son resilientes, invulnerables, capaces de liderar y muchas veces las respuestas son complacientes para validar sus puntos de vista.

Este fenómeno se complementa con otras tendencias como las tradwife, es decir, mujeres que se enfocan exclusivamente en el cuidado del hogar que refuerzan los roles de género.

“Esto lleva a los hombres a esquemas patriarcales que no les permiten fallar, ser vulnerables o ser emocionales. Pero, los hombres también quieren sentir, expresarse, paternar y el sistema no los deja, eso es una supresión emocional que genera violencia”, añadió la directora.

Esto último ha generado un crecimiento de movimientos como los incels, cuyos miembros han estado involucrados en varios episodios violentos alrededor del mundo. Gómez cree que debe seguir impulsándose una revolución feminista que busque la igualdad, impulsar una educación crítica con respecto al uso de los modelos de IA y, desde el lado tecnológico, programar con equidad desde el diseño y realizar auditorías.

Continue Reading

Tendencia

Copyright © 2021 La Hora