·         Se llevará a cabo del 8 al 19 de mayo en el Centro Cultural Universitario, así como en diversas sedes de la Universidad Nacional Autónoma de México

 

La inteligencia artificial (IA) no es el futuro, es el presente. Hacemos uso de ella al conectarnos a las redes sociales, utilizar sistemas de compra digitales, jugar videojuegos, consumir publicidad, acudir al médico o ir a museos.

¿Ha llegado la inteligencia artificial para reemplazarnos? ¿Se quedarán sin trabajo las personas profesionales del diseño, la traducción, la farmacéutica, las artes visuales, la música, la escritura o la genética?

Ante el avance de esta herramienta se definen dos posturas: aquella de quienes piensan que en breve se desarrollará una inteligencia superior a la humana, lo que significa un peligro, y la de quienes ven en su crecimiento oportunidades para la creatividad y la solución de problemas.

Ambas visiones forman parte de la octava edición de El Aleph. Festival de Arte y Ciencia, organizado por la Coordinación de Difusión Cultural de la UNAM (CulturaUNAM), que se llevará a cabo del 8 al 19 de mayo en el Centro Cultural Universitario, así como en diversas sedes de la Universidad Nacional Autónoma de México.

El extenso programa titulado “Retos de la inteligencia artificial y otras inteligencias” está conformado por 72 actividades y en él se articulan propuestas académicas y artísticas. Participarán más de 255 personalidades de la ciencia y el arte, provenientes de 11 países, para abordar ámbitos como medio ambiente, medicina, ciencias computacionales, ética, humanismo, ingeniería, educación y por supuesto el universo artístico y creativo.

En la cultura académica, el neurocientífico argentino Rodrigo Quian Quiroga, descubridor de la “neurona de Jennifer Aniston”, es decir, de neuronas que codifican conceptos específicos, impartirá la conferencia magistral de inauguración académica ¿Qué nos hace humanos?, trazando de manera clara la enorme distancia que aún separa a las máquinas de los humanos.

 

Por su parte, la directora creativa Hanna Price, que dirige la creación del inmersivo Museo de Shakesperare en Londres, hablará de los alcances de la IA en las arenas de la creatividad visual para espacios expositivos, museos, videojuegos y teatro.

De igual manera, Vivienne Ming, neurocientífica y autoridad en inteligencia artificial, hablará de la mediación de la IA en la inteligencia colectiva y su contribución a la resolución humana de problemas.

Por supuesto, el lado ético de la IA, algo que resuena actualmente en casi cualquier publicación noticiosa que abarque el tema, será parte de la conferencia de Brian Green, director del Centro Markkula de Ética Aplicada de la Universidad de Santa Clara.

El público podrá disfrutar de actividades como la exposición Face to Face for Mexico, en el Colegio de San Ildefonso, del icónico compositor, productor y artista visual Brian Eno, quien a partir de fotografías y con el uso de un software especial desarrolla una cadena de nuevos humanos, los rostros de cientos de personas que nunca han existido.

El compositor, DJ y artista chilenoestadunidense Nicolás Jaar ofrecerá en forma de instalación su radioarte Archivos de Radio Piedras, por primera vez completo, en el espacio de experimentación sonora del Museo Universitario de Arte Contemporáneo (MUAC). Un evento que impulsa contenidos políticos a través de un relato ficcional y una serie de capas de estrategias sonoras. Además, dará un concierto el 11 de mayo a las 6 p. m. en la explanada de La Espiga.

Se inauguran, además, en el Palacio de la Autonomía, que fungirá de “sede IA”, seis exposiciones, entre ellas SKU-Market, de las estadunidenses Laura Allcorn y Jennifer Edmond, un mercado en el que los visitantes podrán “comprar” desde un “pasillo algorítmico”. Con base en lo comprado, el algoritmo presentará una imagen final del “comprador” ¿Coincidirá realmente con quién eres?

Tendrá lugar el montaje de la puesta Inteligencia actoral, de Flavio González Mello, en el que se aborda el dilema de un director teatral que se queda sin actor para interpretar a Hamlet, de Shakespeare, y echa mano de un robot para reemplazarlo.

 

Cine, danza y música en las fronteras de la tecnología

Dentro de los acercamientos propiamente artísticos a la IA, nos hemos centrado en las participaciones del compositor Jaime Lobato y de la artista multimedia Minerva Trejo.

La actividad de Jaime Lobato, artista transmedia, compositor, curador y, en la UNAM, investigador asociado del Centro de Ciencias de la Complejidad, así como colaborador del Instituto de Matemáticas, el de Fisiología Celular y el de Investigaciones en Matemáticas Aplicadas y en Sistemas, será diversa.

Su primer evento es Réquiem-AI. Como sabemos, Mozart murió sin poder completar su famoso Réquiem y fue su discípulo, Franz Xaver Süssmayr quien logró la tarea. De igual forma, Lobato ha encabezado un equipo de 15 matemáticos, físicos y compositores para crear diversos modelos matemáticos de análisis y producción musical a los que se les pueda alimentar con la música tardía de Mozart para crear una especie de discípulo algorítmico de Mozart, que sea capaz de “generar una nueva versión estadísticamente aproximada a Mozart del Réquiem” comentó el compositor en entrevista para Gaceta UNAM. “No vamos a crear una pieza única e irrepetible sino un modelo que cada vez que se presente la pieza pueda crear una versión ligeramente diferente pero siempre aproximada.”

“La idea es de la maestra Irina Marcano, directora del Taller Coreográfico de la UNAM, que quiso que la famosa coreografía de Gloria Contreras sobre el Réquiem tuviera una versión donde la danza y la música estuvieran relacionadas de esta manera”, abundó Lobato.

En Réquiem-AI participan el Taller Coreográfico de la UNAM, bajo la dirección artística de Irina Marcano, la Orquesta Juvenil Universitaria Eduardo Mata (OJUEM), conducida por Christian Gohmer y el Coro de Cámara Staccato, dirigido por Marco Antonio Ugalde. Las funciones se llevarán a cabo el 12 de mayo a las 12:30 y 6 p. m. en la Sala Miguel Covarrubias del Centro Cultural Universitario.

Punto cero será el concierto en el que se interpreten obras de Roberto Morales Manzanares y de Jaime Lobato para coro y electrónica, y en el que se utilizarán de diferentes maneras herramientas de inteligencia artificial para la composición. Morales, con un modelo de IA propio (es un pionero mexicano en el campo), habrá de intervenir una partitura que el coro ya conozca mientras que Lobato lo hará “a través de un modelo de IA que crea la partitura en tiempo real y la transmite a las pantallas que cada interprete tiene delante. Para ello utilizaré una computadora cuántica de IBM que generará la composición también en tiempo real a partir de ciertos algoritmos preestablecidos”, afirmó. También con la participación del Coro Staccato, Punto cero se llevará a cabo el 16 de mayo a las 6:30 p. m. en la Sala Carlos Chávez, del Centro Cultural Universitario.

Finalmente, participa en la creación de un performance dancístico titulado Naturficial “en el que se utilizarán biosensores, los aparatos utilizados para crear, por ejemplo, electroencefalogramas o electrocardiogramas, entre otros, que enviarán los datos de los interpretes para entrelazarlos con algoritmos que, a su vez, se manifiesten de diversas maneras en el escenario”, comentó. La función se efectuará el 19 de mayo a las 6 p. m. en el Salón de Danza, del Centro Cultural Universitario.

Por su parte, la artista transdisciplinaria, curadora, directora, productora y activista, Minerva Trejo dirige la compañía Bioscénica, dedicada a crear, desarrollar y producir propuestas que conjugan arte, ciencia y tecnología con fines escénicos. Forma parte del grupo de investigación y creación Arte + Ciencia de la UNAM. Para su participación en El Aleph ofrece la experiencia titulada Cine de párpados, en el que los asistentes entran a una sala de cine, se sientan en la butaca y… cierran los ojos. En ese momento, diversas luces, paisajes sonoros, tipos de música, voces y otro tipo de estímulos se proyectan sobre sus cuerpos. “La investigación comenzó hace varios años, cuando estuve investigando qué ocurre con los cuerpos de las personas al proyectarles encima luces de distintas frecuencias.

La investigación continuó con la idea de qué se percibe con todo el cuerpo y que esto nos puede conectar con los órganos internos. Hice una edición de estas luces de la investigación para proyectarla sobre un público, en vivo, con una capa adicional de color y sonido envolvente. Y así nació Cine de párpados.”

Desde las primeras funciones de esta extraña película que sucede en nuestro interior se echó mano de meditación, estímulos del olfato y del gusto y han llegado resultados interesantes. “Hay quien ronca, quien lo considera relajante, gozoso; hubo una persona invidente, no de nacimiento, que nos aseguró haber recordado los colores a través de la experiencia, hay quien ve a sus ancestros o pierde la orientación. Y es que al final hablamos con la gente y les pedimos que de manera voluntaria nos compartan lo que les ocurrió. Nos queda pendiente elaborar una publicación con esos muy interesantes resultados”.

Cine de párpados ocurrirá los días 17 de mayo, a las 8 p. m., y 18 de mayo, a las 12:30 y 7 p. m. en la Sala Miguel Covarrubias.

FUENTE: UNAM

Instagram
WhatsApp