Inteligencia artificial, ética y creatividad

Y el robot terminó la sinfonía inacabada…

A principios de año, los medios nos inundaron con una noticia de esas que, quien las genera, sabe con seguridad que estará en todas las portadas. Un sistema desarrollado por la marca de telefonía móvil Huawei había terminado la Sinfonía Nº 8 de Schubert, la inacabada, como se la califica. 197 años después, la pieza se arriesga a perder el epíteto.

Para componer los 18 minutos “extra”, este ejemplo de inteligencia artificial (IA) usó un algoritmo que mezcló en su coctelera de ceros y unos la métrica, la tonalidad y el timbre aportados por el autor de la obra. Y el resultado se calificó desde varios frentes, resumidos en tres grandes categorías: la musical, la creativa y la ética. Los dos últimos plantean los mayores dilemas.

“Todavía hoy no sabemos las circunstancias por las que el autor no la terminó: igual no quiso, y puede que no le gustara el añadido”, apunta, respecto a la ética, Justo Pérez, responsable de desarrollo tecnológico de la empresa Magiquo especializada en soluciones de inteligencia artificial. Pero hay más: “la persona elegida para hacer los arreglos para orquesta reconoció que la IA no le proporcionó la partitura al dedillo, pero ‘le dio muchas ideas’, basadas en los dos primeros movimientos. Esto plantea muchas dudas sobre la definición de lo que es arte”. Lo que hizo este robot, ¿se puede considerar creativo?

Qué es la IA

El concepto original de inteligencia artificial la propuso el informático John McCarthy en el Congreso de Darmouth, celebrado en 1956 en la Universidad homónima de los Estados Unidos. Y su descripción fue: “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes”. El año de 1950 también está marcado en rojo en las líneas del tiempo sobre esta materia, ya que fue en el que vio la luz el artículo “Computing Machinery and Intelligence”, en el que se incluía la cuestión de si las máquinas podrían hablar con los hombres. Ahí nació el denominado test de Turing, que mide la capacidad de las máquinas para hacerse pasar por humanos. ¿A alguien le ha venido a la mente el test de Voight-Kampff, ese que intentaba detectar replicantes en Blade Runner, tras leer esto?

Pero la IA cómo tal se remonta a inicios del s. XX. Un punto de partida puede ser la idea del robot, “un humano artifical orgánico”, plasmada por el dramaturgo checo Karek Apek en su obra Rossums Universal Robots. El concepto, por cierto, proviene de la palabra checa “robota” que se podría traducir como labor forzada o prestación personal.

El desarrollo de esta ciencia desde entonces ha estado marcado, como es lógico, por las limitaciones tecnológicas pero también por la carencia de aplicaciones, como ocurrió durante la década de los 90. Pero eso ya es pasado. Hoy en día, la tecnología avanza de forma prácticamente desenfrenada y sus diferentes utilidades se multiplican cada día con un único ámbito de control, el formado por los dilemas éticos asociados. “La tecnología no es mala ni buena en sí misma, depende de las aplicaciones. Evidentemente estamos en un momento en que hay muchas cosas que resolver y que tienen que ver con todos esos retos y planteamientos éticos que están encima de la mesa”, comenta Justo Pérez.

Previamente había nombrado usos positivos de la IA, como la coordinación de las rutas de las procesiones de Semana Santa sevillana o la prevención de infartos e identificación de anomalías cardíacas, pero también otros inquietantes, como su papel en el reconocimiento facial aplicado sobre los participantes en las revueltas de Hong Kong y también la exposición de las identidades del otro bando, los policías. Estos ejemplos le llevan a una reflexión mayor. “Lo que sí que creemos es que ha llegado el momento de decidir cuáles son los límites y hacia donde queremos que vayan los futuros desarrollos. Eso evitará situaciones y atropellos. La ética no puede llegar de forma reactiva como ya ha ocurrido, sino de forma preventiva”.

Nosotros los humanos…

De ética e IA saben en We The Humans, una organización nacida para “favorecer el debate social sobre el correcto uso y desarrollo de la inteligencia artificial, llevar estas preocupaciones a la agenda pública y apoyar a las organizaciones en el desarrollo y adopción de una inteligencia artificial ética”. Su presidente es Juan Ignacio Rouyet, y tiene claro que el debate se desarrolla en un círculo indivisible. “Detrás de la ética hay personas que quieren vivir aplicando el bien”, señala.

Y detrás de la inteligencia artificial o la tecnología, personas que la crean y que inevitablemente la “condicionan”. En este punto aporta el ejemplo de Marconi, quien inventó la radio para desarrollar las comunicaciones en el mar y evitar accidentes. Pero su ingenio se convirtió, a la postre, en un medio de comunicación. Tras darse cuenta de ello, “él pensó en sí con su creación había ayudado a mejorar el mundo o no. Su intención se le había ido de las manos”.

El círculo se cierra, o se abre, con la necesidad de usar la tecnología para garantizar la aplicación de normas éticas a la IA, es decir, a la propia tecnología. Y de vuelta al principio: “¿Son únicas las leyes éticas? Por eso no es solo una cuestión de tecnología, también una cuestión de la persona que hay detrás de la tecnología. Una persona que ha pensado cómo obrar bien u obrar mal”.

We The Humans ha diseñado una herramienta capaz que permite evaluar en qué medida un sistema de IA tiene en cuenta las directrices para una IA éticamente confiable que la Comisión Europea publicó en 2018. Las reglas parecen básicas a poco que se piense en algunas de las decisiones que las máquinas empiezan a tomar por nosotros. Ese chatbot que nos recomienda una reserva de hotel y no otra. Ese programa que ayuda al juez a conocer el riesgo de reincidencia de un delincuente. Ese sistema de conducción autónoma de vehículos que, en caso de un accidente inevitable, elige qué vida salvará o, visto desde el otro lado, quién morirá en el choque.

Volvamos a la creatividad

Este artículo empieza con una relación entre la inteligencia artificial y el arte, la finalización de la inacabada sinfonía de Schubert. Tras la presentación de este hito, parte del debate pivotó entre la conveniencia de tildar de creativa la capacidad del algoritmo para terminar la obra.

“¿Qué pasa con el nivel más alto del desempeño humano: la innovación creativa? ¿Están nuestros artistas y pensadores más creativos a punto de ser superados masivamente por las máquinas?”, se pregunta el catedrático de filosofía de Harvard Sean Dorrance Kelly en este ensayo, que alude también a la predicción de Ray Kurzweil que asegura que, para 2029, “los humanos seremos capaces de crear una IA que podrá hacerse pasar por una persona con estudios medios”. Este sistema superaría, parece, un test de Voight-Kampff modulado para titulados en bachillerato…

“Las afirmaciones como la de Kurzweil de que las máquinas pueden alcanzar la inteligencia humana suponen que tener una mente humana solo consiste en tener un cerebro que sigue un conjunto de algoritmos informáticos, una postura llamada computacionalismo”, responde Dorrance Kelly en su texto. Lo ejemplifica: “Un mono con una máquina de escribir que accidentalmente escribe Otelo no puede considerarse como un gran dramaturgo creativo. La grandeza de su producto es puramente accidental. Es posible que una máquina produzca algo excelente, pero si sabemos que simplemente es el resultado de algún acto arbitrario o un formalismo algorítmico, no podemos aceptarlo como la expresión de una idea para el bien humano”. El académico añade que “solo un ser humano puede ser visto como un artista genuinamente creativo” y, aunque confiesa que la IA algún día podría superar su “formalismo computacional”, reconoce que supondría un “salto inimaginable en estos momentos”.

“Es muy posible que si llegamos a tratar a la IA como si fuera muy superior a nosotros acabaremos atribuyéndole la capacidad creativa. Si eso sucediera, no será porque las máquinas nos hayan superado sino porque nos habremos denigrado a nosotros mismos”, concluye.

Esta conclusión conecta con otra de las reflexiones de Justo Pérez: “Hay investigadores que hablan de un horizonte en el que las máquinas emularán todos los aspectos humanos. Es lo que se entiende como Singularidad, el momento en el que que la inteligencia de una máquina sea capaz de obrar por sí misma. ¿Qué pasará entonces entre humanos y máquinas si no se ha previsto? ¿Habría que limitar ya mismo la eficacia de los algoritmos o las redes neuronales, aunque no desarrollen todo su potencial?”.

Víctor Regidor, licenciado en Periodismo y Comunicación Social.

Artículos recomendados