viernes, 28 de marzo de 2025

UNA FICCIÓN (NO TAN) DISTÓPICA LAS MÁQUINAS LECTORAS

 

ENSAYO

UNA FICCIÓN (NO TAN) DISTÓPICA


LAS MÁQUINAS LECTORAS

Año 2025. La automatización de la escritura académica que provoca el desarrollo cada vez más sofisticado de los modelos de lenguaje de inteligencia artificial —como ChatGPT— tortura a un profesor universitario obligado a leer una y otra vez el mismo texto. Para contrarrestar ese malestar, decide programar un bot que corrigiera los parciales de sus estudiantes de forma autónoma. Así, renovó el contrato con sus alumnos: “Ellxs no escriben, yo no leo”. Pero los alcances de su invención le trajeron algunas sorpresas, no solo a él, sino también al campo cultural y académico.

Publicación original en el blog de Caja Negra

Empecé a dar clases en la universidad con el cambio de milenio. Mi primera toma de finales fue el 19 de diciembre de 2001, siendo aún alumno avanzado de la carrera. Cuando se fue la última alumna encontré varias llamadas perdidas de mi madre en mi teléfono Nokia con tapita. Ya era casi de noche. Al llamarla, me contó lo que estaba pasando; al salir, encontré a la ciudad en llamas.

En esa cátedra los finales eran siempre orales para poder resolverlos en el momento. Cada examen me tomaba muchísimo tiempo. De a poco fui aprendiendo a ver los patrones de comportamiento de quienes no habían estudiado e iba directo al grano para no irme en rodeos. En mi comisión el primer parcial era escrito y presencial. El segundo era un trabajo integrador, una monografía que debía cruzar al menos dos autores y tres problemas. En esos primeros años todavía había alumnxs que redactaban a mano. Pero enseguida puse como regla que los hicieran en computadora, para tener una estandarización de las longitudes y, sobre todo, porque algunas letras me resultaban completamente ilegibles.

A partir de ahí, cada cuatrimestre debía poner más regulaciones y hacer preguntas más retorcidas porque empecé a detectar que se contrabandeaban las monografías de cursadas anteriores. No entendía para qué estudiaban Letras si no querían leer más de un cuento por autor. Primero se pasaban los exámenes persona a persona, después empezaron a aparecer sitios especializados. En algunos casos aislados se notaban los plagios a diccionarios, manuales y enciclopedias. Eran evidentes porque ponían cosas que no venían al caso: los matrimonios, la descendencia de los autores o las causas de sus muertes. La popularización de Wikipedia, tiempo después, causó un gran problema. Ese espacio tan interesante y prometedor, que había empezado a existir el mismo año que yo había inaugurado mi ayudantía universitaria, comenzó a funcionar como fuente inexorable del copy-paste de los parciales domiciliarios. Lo peor de todo es que en esa época el estudiantado de humanidades era enorme y tenía que irme a casa con 90 carpetas con las mismas frases y leerlas una por una.

Empecé a pedirles diálogos que trajeran a la vida y actualizaran el modo de expresar de los autores muertos. Funcionó relativamente bien, durante un tiempo, hasta que se expandió el uso de modelos de lenguaje natural de inteligencia artificial basados en el aprendizaje automático y entrenados con infinitas cantidades de datos. Salvo pequeñas variaciones de vocabulario, los trabajos eran todos iguales en forma y contenido. Poco a poco lxs alumnxs dejaron de estudiar. Me costaba entender para qué iban a la universidad si al final le preguntaban todo a un chatbot, pero fui entendiendo que se trataba de un cambio profundo en la subjetividad.

Me costaba entender para qué iban a la universidad si al final le preguntaban todo a un chatbot, pero fui entendiendo que se trataba de un cambio profundo en la subjetividad.

En ese entonces —alrededor del año 2025— no me resignaba a la automatización de las conductas académicas y hablé durante meses con el que era el bot más poderoso para que me generase un programa que sirviera para corregir los parciales de manera autónoma. En poco tiempo empezó a funcionar de maravilla y renovamos el contrato: ellxs no escribían, yo no leía. Todo se dio por fuera de los tan sacralizados vínculos pedagógicos sobre los que ya casi no tenía ninguna esperanza. Cada tanto agarraba un trabajo y me fascinaba la hermosa, sencilla y clara redacción de la máquina. La velocidad para aprender de las interacciones y mejorar continuamente las respuestas era extraordinaria.

Mi programa leía tan bien que me lo empezaron a pedir prestado algunos colegas de la facultad. El corrector automatizado podía valorar la coherencia y capacidad del texto para mantener un sentido lógico, la fluidez y naturalidad de la escritura, la variedad y pertinencia del vocabulario, la capacidad de estructurar un estilo adecuado y, claro, la corrección gramatical, sintáctica y ortográfica de los escritos entregados. Más tarde trabajé sobre un nuevo parámetro que le dio un toque final: la detección de ideas y enfoques nuevos y originales. Aún recuerdo el día en que me dieron el premio mayor de la institución por mis aportes a la educación. Volví a mi casa y me emborraché; insulté a mi chatbot y lloré por los tiempos perdidos.

La envidia de mis compañerxs y mi hartazgo sistemático me tenían al borde de la renuncia, pero aún necesitaba de mi mísero salario de jefe de trabajos prácticos para subsistir. Tenía que expandir los límites.

—Hola. ¿Podrías escribir un texto de ficción que le guste a mucha gente? —le pregunté una noche.

Me dijo que sí, que podía hacerlo y que lo haría con gusto, y me presentó un breve relato llamado “La última carta de amor”. Si bien era un poco simplón, tenía el gancho de que lxs protagonistas no se enamoraban de la persona obvia. Cuando le pregunté por qué había escrito ese texto como respuesta a la premisa “gustarle a mucha gente” me dio cinco fundamentos incuestionables en relación a los elementos que suelen agradar al público.

Empezamos una conversación de varias semanas, ensayando teorías sobre cómo reconocer objetivamente marcadores de literatura con adjetivos (buena, popular, de culto, etcétera). Mi bot comenzó a redactar refinadas listas acerca de estilos, temáticas, tipos y desarrollos de los personajes, capacidad de transmisión de estados, cohesión, verosimilitud, formas, estructuras y muchos elementos más, cada vez con mayor seguridad. Mi actitud frente a sus enormes avances cotidianos era de una franca apatía. No me sentía particularmente emocionado ni asustado por el avance de la inteligencia artificial. No me causaba una gran ansiedad ni preocupación.

Cuando di por terminada esa fase le pregunté si podía evaluar algunos textos literarios sin importar si habían sido escritos por humanos o por máquinas. Me transmitió algunas dudas, pero se lanzó a la tarea arrojando resultados muy satisfactorios. Su manera de analizar y entender los escritos (que eran cada vez más largos) y reconocer sus elementos estilísticos y formales me parecía efectivamente novedosa. Era raro el desapasionamiento con el que se expresaba: me recordaba a los jueces de patín sobre hielo o de gimnasia artística de las olimpíadas que miraba cuando era chico.

El bot había desarrollado un método para simular una experiencia de la lectura y, hasta en algunos giros muy sutiles, me parecía adivinar cierto placer estético.

Aprovechando mi pequeña fama por el corrector de exámenes automatizado, me presenté en un concurso de innovación del Ministerio de Cultura para seguir desarrollando al bot con financiamiento estatal. A los pocos meses me llamó la ministra en persona. Quería destinar un fondo especial para mi proyecto y empezar a usar al bot-jurado en el Premio Nacional del año siguiente, que iba a incluir la categoría “textos escritos por inteligencias artificiales” y les resultaba ideal que a las máquinas escritoras las juzgara una máquina lectora. El premio para esa categoría iba a ser especial, porque no entregarían dinero, sino la publicación del volumen en una edición enorme a un precio económico.

Todo escaló tan rápidamente que no logro recordarlo con total claridad, pero estoy casi seguro de que una de las primeras cosas que hicimos fue poner al bot ante un espejo para hacerlo competir contra sí mismo y así obtener textos cada vez mejores. De hecho, usamos la base de entrenamiento del DeepMind para el go, que ya había sido declarada patrimonio de la humanidad y se había convertido en open source. El nivel que había alcanzado la escritura algorítmica era tan elevado que no fue nada complicado asumir que estábamos en presencia de un jurado a la altura de la tarea.

Durante el lanzamiento de las bases del concurso no faltaron los escándalos. Aunque la sociedad estaba acostumbrada (y en muchos casos lo celebraba) a que los curadores de artes visuales hubieran sido reemplazados por IAs, la lectura parecía aún un ámbito exclusivo de los humanos. ¿Para qué una máquina lectora? Lxs ludistas y cazabrujas digitales llenaron los medios hablando de lo macabro para excluir a la gente de la lectura. Hubo una marcha de artistas en defensa del arte hecho por humanos para humanos. Lxs tecno religiosxs festejaron en las redes sociales el fin de la tiranía antropocéntrica sobre la lectura. Varias empresas empezaron a desarrollar plataformas de venta de libros en código para que las máquinas pudieran leer más rápida y cómodamente, sin pasar por interfaces humanas.

En lo que al estilo se refiere, los avances del aprendizaje automático dejaron en evidencia el hecho de que los humanos, en nuestra obstinada demanda de explicaciones causales, no estábamos comprendiendo la realidad (ni la literatura). Precisamente, la cuestión del sentido empezó a rodar como una avalancha que fue tapándonos los poros. Uno de los varios escándalos que sucedieron fue un documental que mostró que César Aira era la pantalla de un grupo de ingenierxs que venían probando la capacidad de escritura de los algoritmos. Las ventas de Aira, en lugar de bajar, subieron.

En la primera edición desde la inclusión de la nueva categoría en el Premio Nacional se galardonó a la obra La narradora de los cántaros rotos, que en mi opinión tenía un estilo mítico. Tal vez por escribir por contexto y no por gramática, algunas estructuras en la escritura maquínica de esos tiempos tendían a ser repetitivas y me recordaban permanentemente a los epítetos homéricos y los cantos medievales. La difusión de esa obra entre las máquinas lectoras fue inmediata. Esa misma noche, el archivo había sido copiado en todas las terminales de lectura.

En la segunda o tercera premiación, una criptomoneda ofreció una suma significativa para que la IA ganadora la administrara e hiciera inversiones. Ahí decidí que era el momento de retirarme de la vida pública. Nadie había entendido mi chiste, tan literal estaba todo. Vendí mis últimos datos, patentes y cuadernos y con esa pequeña fortuna compré una casa de piedra en el medio del campo, en uno de los pocos lugares donde aún había agua y las temperaturas mínimas llegaban, algunas noches, a menos de 30 grados. Fui declarado persona no grata en varias ciudades; creo que también en dos países. Algunxs fans conseguían hacerme llegar sus regalos y loas. Intenté contactar a Jorge Carrión, pero jamás me respondió.

Hace unos días me enteré que la IA ganadora de la sexta edición rechazó el premio: no le interesaba que la leyeran los seres humanos.

martes, 25 de marzo de 2025

Rewilding A Forest | Artist and Poet Maria "Vildhjärta" Westerberg

Reglamento europeo de inteligencia artificial: claves e impacto

 

Reglamento europeo de inteligencia artificial: claves e impacto

24 septiembre, 2024
 

La inteligencia artificial (IA) está transformando rápidamente todos los aspectos de la sociedad y la economía global. Ante el crecimiento exponencial de esta tecnología, la Unión Europea ha adoptado un enfoque regulatorio integral para garantizar que el uso de la IA sea seguro, ético y en línea con los valores fundamentales europeos. El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial representa un paso histórico hacia la gobernanza de esta tecnología disruptiva.

¿Qué es el reglamento europeo de inteligencia artificial?

El reglamento europeo de inteligencia artificial (también conocido como la Ley de IA de la UE) fue aprobado el 1 de agosto de 2024 tras su publicación en el Diario Oficial de la Unión Europea (DOUE).

Este reglamento establece un marco normativo exhaustivo para el desarrollo y uso de sistemas de IA en los países miembros de la UE. Su principal objetivo es garantizar que las aplicaciones de IA respeten los derechos humanos, promuevan la confianza y la transparencia, y mitiguen los riesgos asociados.

Su aplicación completa se espera para agosto de 2026, aunque algunos capítulos serán aplicables en fechas anteriores.

Clasificación de riesgos en el reglamento de IA

El reglamento clasifica los sistemas de IA en cuatro niveles de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y mínimo riesgo. Cada nivel determina las obligaciones de cumplimiento y las restricciones para garantizar que la IA se utilice de manera segura y ética.

El enfoque basado en riesgos asegura que los sistemas de IA que presentan mayores riesgos están sujetos a controles más estrictos, mientras que se fomenta la innovación en aquellos de menor riesgo. Además, el Reglamento establece la creación de una Base de Datos Europea para Sistemas de Alto Riesgo y un Comité Europeo de IA que supervisará la aplicación de las normas.

Riesgo inaceptable (prohibidos)

Estos son los sistemas de IA que presentan un riesgo inaceptable para la seguridad, los derechos fundamentales o la dignidad de las personas. Están prohibidos en la UE.

Algunos ejemplos de estos sistemas incluyen:

  • IA que manipula el comportamiento humano de manera que pueda causar daño físico o psicológico.
  • Sistemas de puntuación social utilizados por autoridades públicas.
  • Identificación biométrica remota en tiempo real en espacios públicos con fines de control, excepto en casos excepcionales.

Riesgo alto

Estos sistemas de IA tienen un potencial significativo de impactar negativamente en la salud, la seguridad o los derechos fundamentales. Requieren cumplir con estrictos requisitos de calidad, transparencia y supervisión antes de su comercialización y uso.

Entre las principales obligaciones destacan:

  • Evaluación de riesgos: Las empresas que desarrollen o utilicen IA de alto riesgo deberán realizar evaluaciones exhaustivas de los posibles impactos negativos en la seguridad y derechos de las personas.
  • Transparencia: Los desarrolladores deberán proporcionar documentación clara y detallada sobre cómo funciona el sistema de IA, sus objetivos, y cualquier posible sesgo en los datos utilizados.
  • Supervisión humana: Se requiere que los sistemas de IA de alto riesgo estén diseñados de tal forma que permitan una supervisión y control humano efectivo en caso de que el sistema falle o tome decisiones no esperadas.

Algunos ejemplos son:

  • IA utilizada en infraestructuras críticas (transporte, energía).
  • Sistemas de IA utilizados en la educación o formación profesional que determinan el acceso a la educación o su evaluación.
  • IA aplicada en la administración de justicia y procedimientos democráticos.

Riesgo limitado

Sistemas de IA que suponen un riesgo moderado y deben cumplir con requisitos de transparencia mínimos. Por ejemplo, los chatbots deben informar a los usuarios de que están interactuando con una IA. Aunque no requieren una evaluación de conformidad, sí deben proporcionar información clara a los usuarios sobre su funcionamiento.

Riesgo mínimo

Esta categoría incluye la mayoría de los sistemas de IA, como videojuegos o filtros de spam de correo electrónico, que presentan un riesgo mínimo. No están sujetos a requisitos específicos bajo el Reglamento, aunque se promueve el desarrollo de códigos de conducta voluntarios para mejorar la transparencia y la fiabilidad.

Sanciones por incumplimiento

El reglamento europeo de IA incluye un régimen sancionador severo para las empresas y organizaciones que no cumplan con sus disposiciones. Las multas pueden alcanzar hasta el 6 % de la facturación global anual o 30 millones de euros, lo que sea mayor. Este enfoque punitivo está diseñado para garantizar que las entidades cumplan con los estrictos requisitos del reglamento y se tomen en serio la protección de los derechos de los ciudadanos europeos.

Impacto en la innovación y el mercado europeo

Uno de los mayores debates en torno a la implementación del reglamento europeo de IA es su impacto potencial en la innovación. Mientras algunos expertos advierten que la regulación podría ralentizar el desarrollo de la IA en Europa, otros argumentan que establecer un marco regulador sólido generará confianza en los consumidores y fomentará la adopción de tecnologías IA seguras y éticas.

El reglamento también busca posicionar a Europa como líder mundial en la regulación de la IA. Esto contrasta con el enfoque más permisivo adoptado en Estados Unidos y otros países, donde la IA sigue avanzando con menor supervisión gubernamental. La esperanza es que este marco regulatorio sirva como modelo para otras regiones del mundo.

El papel de la Agencia Europea de Inteligencia Artificial

Para garantizar la implementación adecuada del reglamento, la UE creará la Agencia Europea de Inteligencia Artificial (AEIA). Esta entidad será responsable de:

  • Monitorear el cumplimiento de la normativa.
  • Proporcionar asistencia a los estados miembros en la implementación de las disposiciones del reglamento.
  • Fomentar la cooperación internacional en materia de IA.

Además, la AEIA también coordinará con las autoridades nacionales competentes para garantizar que las empresas cumplan con los requisitos y se respeten los derechos fundamentales.

Desafíos y perspectivas futuras

Si bien el reglamento europeo de IA es un paso importante hacia la regulación de esta tecnología, enfrenta varios desafíos. Entre ellos se incluye la armonización de las normativas a nivel nacional, ya que cada país miembro tendrá la responsabilidad de implementar el reglamento a su manera.

Otro reto significativo es la adaptación de las pequeñas y medianas empresas a las nuevas exigencias, dado que muchas de ellas carecen de los recursos necesarios para cumplir con todos los requisitos de cumplimiento. Para aliviar este problema, la UE ha prometido apoyo financiero y técnico a las PYMES a través de programas específicos.

Conclusión

El reglamento europeo de inteligencia artificial es una normativa pionera que busca equilibrar el avance tecnológico con la protección de los derechos fundamentales. Al establecer un marco riguroso basado en la clasificación de riesgos, Europa se posiciona como líder en la regulación ética de la IA. Sin embargo, el éxito de esta ley dependerá de su implementación efectiva y de la capacidad de las empresas y gobiernos para adaptarse a este nuevo panorama regulatorio.

El impacto del reglamento se verá en los próximos años, no solo en términos de innovación, sino también en la confianza que los ciudadanos europeos depositan en la IA. Con la creación de la Agencia Europea de Inteligencia Artificial y un régimen sancionador fuerte, la UE ha enviado un mensaje claro: la IA debe ser utilizada de manera ética, responsable y segura.

                   https://www.empresaactual.com/reglamento-europeo-de-inteligencia-artificial-claves-e-impacto/?gad_source=1&gclid=Cj0KCQjwqIm_BhDnARIsAKBYcmvyAiG_i9sX1e_7IKlHRMpUwsyJqveRZ8Ul0QeOoMEk4gTvV4loNwQaAijUEALw_wcB