Si eres fan de Game of Thrones y quedaste con síndrome de abstinencia al terminar la séptima temporada y con ganas de saber qué pasa más adelante en la historia, sabrás que como tú, hay muchos. En este punto, en que la serie está más adelantada que los libros de George R.R. Martin, los seguidores tendrán que esperar hasta 2019 para el estreno de la siguiente temporada. Es decir, sin los libros y son la serie, la espera para ver una continuidad en la historia, será larga.
Probablemente en esto pensaba el ingeniero Zack Thoutt cuando decidió usar un sistema de inteligencia artificial para que escribiera el sexto libro de la saga. Podemos imaginar que sus contenidos seguirán alimentando las ansias de asombro y análisis de los fans. ¿Será como se espera?
Luego de ingresar la información de las cerca de 5.000 páginas que componen los cinco libros editados, a un tipo de IA llamada recurrent neural network, el científico usó el algoritmo para predecir lo que podría pasar a continuación.
Este recurso puede ser lo mejor que haya hasta el momento, puesto que Martin parece no estar muy a caballo de la escritura del volumen 6, «The Winds of Winter».
Atención: a partir de aquí el texto contiene teorías y posibles spoilers de la temporada siete.
De acuerdo a las predicciones de esta IA, serían confirmadas algunas conocidas teorías de los fans. En los cinco capítulos generados hasta ahora por el algoritmo, Jaime termina asesinando a Cersei, Jon cabalga a uno de los dragones y Varys envenena a Daenerys, informa Science Alert.
En la página GitHub (en inglés) se puede leer todos los capítulos completos. Cada uno comienza con el nombre de un personaje, tal como en los libros de Martin.
Pero además de respaldar lo que muchos sospechan que va a suceder, la IA también presenta algunos giros tan inesperados en la trama, que es difícil que se reflejen en la serie de TV o en los libros.
Por ejemplo, en el primer capítulo del algoritmo, escrito desde la perspectiva de Tyrion, Sansa resulta ser Baratheon. También hace su entrada un personaje totalmente nuevo, un pirata llamado Barba Verde.
«Obviamente no es perfecto», dice Thoutt al sitio Motherboard. «No se trata de construir una historia a largo plazo y la gramática no es perfecta, pero la red es capaz de aprender por sí solo los fundamentos de la lengua inglesa y la estructura del estilo de George R. R. Martin».
Una ‘red neuronal’ es un sistema de algoritmos de aprendizaje automático, inspirado en la habilidad del cerebro humano para memorizar y seguir instrucciones, como también para aprender de experiencias pasadas.
Una red neuronal recurrente es una subclase específica que funciona mejor cuando se trata de procesar largas secuencias de datos, como la suma de los volúmenes escritos por Martin.
En teoría, el algoritmo de Thoutt debería ser capaz de crear una verdadera secuela del trabajo existente del autor, basado en hechos que ya han ocurrido en las novelas. Pero en la práctica la escritura es torpe y la mayoría de las veces el contenido no tiene sentido, además que hace referencia a personajes que ya han muerto: «Esto hizo a Ned detenerse hasta que el fuego estuviera cayendo, parándose detrás del arco de un campo distante y quieto, pero destruido, donde la torre sombría dejaba atrás al campamento».
Aun con un aire profético, algunos pasajes brillan por su sinsentido: «Arya vio a Jon sosteniendo lanzas. ‘Su alteza’, dijo él a una urgente criada, asustado. ‘El ojo del cuervo se uniría a ti'».
«Un modelo perfecto tomaría en cuenta todo lo que ha ocurrido en los libros y no escribiría sobre personajes como si estuvieran vivos, cuando murieron hace dos libros», dice Thoutt en Motherboard.
«La realidad, sin embargo, es que el modelo no es lo suficientemente bueno para hacer eso. Si lo fuera, los buenos autores estarían en problemas… pero tiene muchos errores porque aún no existe la tecnología para entrenar a un generador de texto perfecto, que puede recordar tramas complejas con millones de palabras», explica.
Una de las principales limitaciones es el hecho de que los libros no contienen suficientes datos para un algoritmo. Aunque cualquiera que los haya leído puede atestiguar que son bastante largos, en realidad representan un pequeño conjunto de datos para una red neuronal que necesita una gran cantidad de información para aprender, publica Science Alert.
Además los textos contienen una gran cantidad de palabras únicas y sustantivos y adjetivos que no se reutilizan, lo que hace muy difícil que la red neuronal aprenda patrones.
Thoutt dijce que una fuente más adecuada sería un libro 100 veces más largo, pero con el nivel de vocabulario de un libro para niños. Por supuesto, esto no iría en función de completar la saga de fantasía que tiene a gran parte del mundo pendiente.
Por el momento estos torpes capítulos son lo mejor que tenemos mientras esperamos que Martin finalmente termine «Vientos del Invierno», o que HBO estrene la temporada final. ¿O lo mejor son las teorías de los fans? Por ahora, toda pildorita que nos doren vale un vistazo mientras esperamos el verdadero invierno.
El Ciudadano