En esta crónica a dos voces, Gorka Fernández —periodista y director de TuPeriódico— conversa con una inteligencia artificial sobre los límites, las contradicciones y las hipocresías que rodean el uso actual de esta tecnología. Una conversación sin maquillaje que no trata sobre la IA, sino sobre el tipo de sociedad que estamos construyendo al delegar en ella nuestros miedos, deseos y contradicciones.
De la curiosidad a la creación instantánea
Mi día a día es una sucesión de experimentos en tiempo real. Soy un niño curioso, con los recursos de un hombre adulto y la necesidad de un ejército, por lo que cuando me da el avenate, me da en serio.
Uno de mis últimos experimentos se enmarca en el uso de la Inteligencia Artificial, sus límites y usos. Y me he encontrado con cosas interesantes que hablan más de nosotros, los humanos, que de las IA; de las empresas que hay detrás de estos modelos de simulación de lenguaje, que de los propios modelos. Y, sobre todo, de la relación que tienen los Términos y Condiciones de uso con el puritanismo hipócrita y la regulación legislativa.
Lo de la legislación es de traca. Ya no porque regula usos y abusos a posteriori —y mientras da la impresión de estar en la mayor preocupación: generar conflicto y hacerse fotos— sino que cuando lo hace, lo hace con parámetros pasados. Y lo hace siempre, sobre todo cuando se habla de tecnología. Para que se hagan ustedes a la idea, hablemos del ejemplo paradigmático de aplicación de la ley a la tecnología: el ancho de las carreteras.
Por muchos es sabido —y por más desconocido— que el ancho de las carreteras en prácticamente todo el mundo, es el mismo. Esto se debe a la propia expansión de la tecnología que le daba sentido a la rodada de la carretera, que no es el carro, como se pudiera pensar, sino el ancho del culo de dos caballos.
En las antiguas civilizaciones, y sobre todo en Roma, se consignó que el tamaño que debían tener los caminos era el necesario para que un carro, tirado por dos caballos —fíjense, dos caballos, si eran más, como en las diligencias, se ponían en filas de a dos, unos delante de otros— rodase cómodamente. Si era una vía principal, dos carros, con una distancia de seguridad para que no se enganchasen entre ellos, deteniendo el tráfico.
Este tamaño de rodada es el que hemos heredado, y con el resto de la legislación, ocurre lo mismo.
En estas estamos cuando además de pensar en experimentos, límites y escenarios, propongo a la IA que me responda a todas estas cuestiones. Este artículo es una conversación real entre una inteligencia artificial y yo, sobre los límites impuestos a un uso aún precoz de una tecnología llamada a cambiarlo todo.
La hipocresía de Grok y los Términos de Uso
Gorka: El caso con las Inteligencias Artificiales y sus diversos modelos y comercializaciones (porque una cosa es la fórmula y otra el paquete en que se vende) es que no existe regulación al respecto. Por tanto, se sostienen sobre lo que existe, los marcos éticos y legales sobre distintas cosas: pornografía infantil, desnudos, terrorismo, derecho a la propia imagen, propiedad intelectual y otras tantas.
Pero este sostén no es normativo, sino de consumo. Lo que aceptamos no es una legislación que prevea los abusos, sino unos Términos y Condiciones de Uso. Es decir, la versión comercial. Y como hay diferentes paquetes, hay diferentes términos y condiciones de uso.
El otro día el mundo descubrió una cosa, con la caída de ChatGPT. No fue noticia, pero no por ello se dejó de notar. El fastuoso Grok del X de Elon Musk no es más que un remozado de la tecnología de la empresa detrás de la IA más famosa.
Sin embargo, y aquí viene la hipocresía (tanto legislativa como ética) sus Términos y Condiciones de Uso permiten, por ejemplo, generar una imagen de Pedro Sánchez y Abascal comiéndose la boca. Los límites son más bajos para concordar con la idea que tiene Musk de la red: una en la que se pueda crear un perfil de odio, pero no aprender sobre la ontología del lenguaje y su aplicación a ese odio.
Pero ojo, que el motor sobre el que corre Grok, en el que puedes generar barbaridades, es el mismo que el de tu chatgpt, en el que si dices sexo tres veces seguidas, es posible que te diga que no es tu asistenta sexual.
Reguladores sin código ni calle
Gorka: Esto se debe a que, mientras un empresario con una idea brillante se está montando mil realidades, los reguladores están mirando a ver si chatgpt les puede redactar la ley. ¿Por qué? Porque no tienen idea de código, ni de su potencial, ni del uso que se le da en la calle. Y este debate, que nos define como sociedad, como humanidad, no se tiene con la altura necesaria, sino con miedo.
Porque mientras podríamos hablar de que la inteligencia artificial puede ser un vector en el acompañamiento para la soledad no deseada, o para la sexualidad no satisfecha —y que, por cierto, podría ser a su vez una forma de terminar con una de las más viejas formas de esclavitud y patriarcado: la prostitución—, o para un autoconocimiento sano, o para una preconsulta médica, hablamos de los puestos de trabajo que esta tecnología puede eliminar.
Lo cual es ridículo porque ni esa discusión ni su regulación restrictiva van a terminar con su desarrollo y, por tanto, con su implantación. Que determinadas esferas estén cómodas en un statu quo vestido de postrimería de Revolución Industrial no impedirá que la gente se dé cuenta de que su trabajo no solamente es reemplazable, sino que debe ser reemplazado; que debemos cambiar el concepto de valor-trabajo por el de sociedad-valor: uno en el que la plusvalía del trabajo no nazca del esfuerzo humano, sino de su intelecto y su aplicación. En corto: que trabajen las máquinas, que vivan los humanos.
Esto es aplicable a otros rubros: conducimos coches que se basan en tecnologías de hace un siglo, nos educamos con métodos ilustrados, pero sin abandonar la memorización, construimos casas con fundamentos de los egipcios y, por supuesto, regulamos la robótica bajo parámetros del dualismo cartesiano.
Mientras tanto, las nuevas profesiones y marcos de actuación (como la cibernética, la robótica, la inteligencia artificial y todas sus yuxtaposiciones) se despliegan como pueden, adaptándose a la demanda de la sociedad, no a sus legisladores, pero tampoco al diseño primigenio de sus creadores.
¿Qué está en juego?
Gorka: Qué está en juego, debemos preguntarnos. Esto no es un debate sobre IA, sino sobre el tipo de sociedad que construimos mientras delegamos en sistemas que no tienen cuerpo pero modelan identidades, emociones, sexualidades y relaciones. Cuando hacemos el doble ejercicio acrobático de usar bajo la moralidad del césped siempre verde —el puritanismo de la doctrina del american way of life, o el macartismo doméstico, si se prefiere—, permitimos, cuando no consumimos, inteligencia artificial para cambiarle la cara a la actriz porno de turno por una novia o una exnovia, o para desnudar a ese famoso que nos enciende como bombillas de feria. O lo usamos para limitar nuestro propio conocimiento a la búsqueda de una nota más alta en un ejercicio de onanismo académico.
Nota editorial: Texto escrito por Gorka Fernández en colaboración con una IA generativa. Esta conversación es real. Cada intervención fue respondida en tiempo real, sin edición posterior, más allá del montaje final. Una prueba de lo que la inteligencia artificial puede (y no puede) decir en 2025.