De la pantalla a la vida real: la inteligencia artificial en el cine

Autos que vuelan, ancianos que en realidad no lo son, seres de otro planeta, superhéroes, robots, transformaciones fáciles; un universo de cosas imposibles que se cuelan en nuestra vida diaria a través de películas y series que no solo nos sumergen en un mundo paralelo, sino que además nos despiertan dos interrogantes fundamentales: ¿cómo se logran estos efectos? y ¿son posibles en la vida real?

En el día de ayer, Intel realizó una charla virtual en donde invitó a indagar en estas dos preguntas a través de algunas de las películas y series más icónicas del último tiempo, a la luz de las diferentes y disruptivas tecnologías que la compañía ha desarrollado e implementado.

Minority Report

En el film se puede evidenciar cómo se comportan los algoritmos de inteligencia artificial (AI), a partir de la posibilidad de predecir el futuro y dar un aviso para efectuar las acciones pertinentes dentro del comando. Un ejemplo cotidiano es la predicción de Churn, que permite anticipar cuándo un cliente está por abandonar una empresa, identificarlo y avisar a marketing para que tome una acción. Sin embargo, hay una diferencia muy importante con los personajes del film, dado que los algoritmos de AI requieren un conocimiento previo para brindar la información, mientras que en Minority Report, las tres personas que dan aviso lo hacen porque poseen un don.

La compañía de tecnología colabora con el entrenamiento de los algoritmos IA para que sean capaces de identificar patrones tales como desde hardware Intel Xeon o las GPUs para HPC (Ponte Vecchio) y tools de SW (Math Kernel, entre otros) para los desarrolladores, además de hacerlo de manera ágil y rápida. Gracias a los avances de estos algoritmos, solo requiere de buena información previa para que sean cada vez más precisos en su capacidad de comprender el comportamiento, a través de la información que reciben.

Ver más: El servicio 5G ya alcanza 1.662 ciudades en todo el mundo

Back to the Future

Este clásico de 1989 refleja cómo se creía sería el futuro y de qué manera se interactuaría con el entorno y los demás. En la escena en la que un tiburón 3D sale de un anuncio publicitario cuando el protagonista se queda observándolo, es el reflejo de lo que actualmente se denomina marketing interactivo.

Hoy podemos ver adaptación del contenido publicitario en los sitios web de compras, por ejemplo, aunque no todos cuentan con la personalización de las ofertas. En el caso de los comerciales en vía pública, lo que se busca es incorporar también el concepto de customer experience, es decir, que el cliente o el potencial perciba que el contenido es personalizado para él. Está probado en la industria que esto no solo mejora la fidelidad de los clientes, sino que también puede generar muchas más ventas.

Para lograr esta personalización, se pueden utilizar una combinación de varias tecnologías, tales como el reconocimiento facial. La evolución de estos tipos de algoritmos, junto al importante avance del HW de Intel, hacen que se ejecuten en el borde (edge) sin inconvenientes. En el edge se aloja la aplicación y también toma otro tipo de acciones basadas en las reacciones. Además, la información generada sirve de entrada para múltiples sistemas y desarrolla una demanda mucho mayor de tecnologías de almacenamiento donde la disponibilidad y la accesibilidad son ejes determinantes.

Para hacerlo posible, la empresa cuenta con varias alternativas como: las mini PCs NUCs, Intel Optane para almacenamiento y la tecnología SGX presente en los procesadores Intel Xeon. Esta última, ayuda a la seguridad de las aplicaciones, habilitando una zona segura dentro del procesador donde se ejecutan determinadas partes del código, algo que cuando estamos hablando de entornos donde las cargas están distribuidas entre el cloud y el on prem es muy importante.

Ver más: VTEX anuncia el lanzamiento de su oferta pública inicial (IPO)

Más de 30 años después del estreno de Back to the future, se ve algo implementado de este tipo de algoritmo, pero muchas veces el desafío es el contexto y no la tecnología en sí. Las redes neuronales (que son lo que permiten que se pueden reconocer fácilmente estos rasgos) están desarrolladas desde la década de los ochenta, pero los algoritmos deben ser entrenados y como en dicha época la cantidad de imágenes disponibles era limitada, la implementación era utópica y se percibía como ficción.

Con el surgimiento de otras tecnologías como Facebook o Google, la digitalización de las imágenes, la capacidad de almacenamiento y de procesamiento crecieron de manera exponencial, permitiendo actualmente sacar provecho de las redes neuronales y los datos que se generan segundo a segundo.

Matrix

El film se centra en un mundo de dominación de la AI sobre los humanos en una realidad paralela diseñada para mantener las mentes de los humanos allí, mientras yacen en estado vegetativo alimentando con su energía a la poderosa red. La AI es lo que le da la vida a la robótica, siendo esto lo que permite que un robot se comporte como un humano.

El Reinforcement Learning es un algoritmo capaz de aprender sin que se lo haya entrenado previamente, y lo hace desde su propia experiencia a través del establecimiento de premios y castigos. Intel aporta a la comunidad open a través de RF Coach, utilizando su plataforma para que el entrenamiento sea mucho más eficiente. Su tecnología es utilizada en background para que ese algoritmo aprenda y pueda ser una realidad.

Ver más: Instagram quiere ser el canal de venta de los NFT

Hoy la AI no posee consciencia, pero podría aprender con base a su experiencia partiendo de eventos previos. Se necesita información para lograr hacer un sistema de AI y proyectando a futuro, esta inteligencia artificial puede asistir al hombre en diferentes tareas y/o en la toma de decisiones, como lo hace actualmente en los autos autónomos. Lo cierto es que la capacidad de adaptarse a nuevas circunstancias sigue siendo, por el momento, exclusivamente humana. Para dar a las máquinas nuestras habilidades, al parecer, tenemos que darles nuestras historias.

The Irishman

El film protagonizado por Robert De Niro, muestra la evolución en la edad del actor y estos cambios en su apariencia fueron realizados con AI: un trabajo de simulación y proyección. La AI permite que las películas creen gráficos increíblemente detallados y realistas, a la vez que ahorra tiempo en las iteraciones creativas que trabajan juntas para elevar el arte de la creación de corto y largometrajes y mejorar la experiencia del público.

¿Y cómo se logró transformar su apariencia? Para envejecer el rostro del actor, se utilizó una tecnología muy similar al Real Sense de Intel. La grabación se realizó con 3 cámaras, de las cuales 2 eran de profundidad para realizar una imagen en 3D del rostro del actor. Ahora bien, la simulación de De Niro implicó capturar, en un lapso de dos años, imágenes de él de películas anteriores. Esto sirvió para entrenar el algoritmo de simulación y posteriormente proyectar.

Dado que se empleó CGI, el cual es muy utilizado en el mundo de las películas ya que son imágenes realizadas por computadora, el avance permitió que la captura en 3D sea con las cámaras en lugar de obtener una imagen en 3D literal de los actores. El CGI requiere tiempos de renderización en los procesadores Intel Core i9 o Core i7 que son utilizados en gaming o por los creadores de contenido. También puede utilizarse la nueva placa discreta GPU de Intel, que además de la renderización también está ejecutando el algoritmo de AI que envejece o rejuvenece los personajes.

Ver más: Huawei planea invertir USD 150 millones en desarrollo de talento

Megalodón

Esta súper producción contó con tecnología de la compañía, en la que el tiburón fue generado íntegramente por AI en 10 mil núcleos y utilizando 2500 procesadores Intel Xeon. Recrear un tiburón prehistórico de 75 pies de largo en el agua, para la pantalla grande, no es una tarea fácil.

Además de dar vida al Megalodon, Scanline y Ziva, también era necesario asegurarse de que sus movimientos, a través del océano o un fondo fluido, fueran realistas. Fue posible crear a Megalodon moviéndose a través del agua, a través del procesamiento de una serie de simulaciones físicas y ejecutando el tiburón simulado a partir de los movimientos y poses necesarios en las tomas de la película.

Una de las grandes ventajas de utilizar procesadores escalables Intel Xeon, fue la generación de datos de entrenamiento asombrosos. Cuando se entrena un proceso de machine learning, es necesario saber cómo se comportará algo para anticiparse a sí mismo o extrapolar cómo se espera que se comporte, en este caso, el movimiento del tiburón en sí. La tecnología Intel Xeon ayudó a los creadores de la película a hacerlo de manera rápida, eficiente y lo más realista posible.

Los procesadores Intel Xeon impulsaron el software de generación de caracteres de Ziva y ayudaron a acelerar el motor de física de Ziva, un algoritmo de inteligencia artificial que automatiza el movimiento de las criaturas generadas, incluido el Megalodón. Además, Scanline utilizó potentes procesadores Intel Xeon para renderizar las tomas de la película, ahorrando así tiempo que se empleó en crear más y mejores tomas.

Ver más: Histórica planta de energía de Nueva York minará Bitcoin

Black Mirror

En el capítulo “Rachel, Jack and Ashley Too” se aborda la temática GPT/BERT/Transformers, Lenguaje Natural (NLP), la cual permite que un algoritmo sea capaz de emular la manera de escribir de un ser humano. La trama revela que el robot de Ashley es capaz de responder como si fuese el personaje, una vez que se libera el bloqueo que poseía.

Si bien es un comportamiento similar al de un bot, hoy en día es posible la emulación de una persona, pero no su razonamiento; debido a que generalmente se programa un bot y de una frase se va a obtener lo que se llama intento, que es sobre lo que habla la frase y ahí es donde estos algoritmos pueden ser útiles. Ahora bien, una vez identificado eso se programa cuáles serían los próximos pasos como si fuera un árbol de decisión.

Hasta el 2018 era muy difícil poder obtener un sistema de lenguaje natural (chat bots o traductores en tiempo real) con precisión. Con el surgimiento de los transformers (BERT) comienza a ser posible, dado que los algoritmos son capaces de comprender el lenguaje de una manera revolucionaria. Es en este campo donde los próximos años se evidencien grandes avances como: análisis de sentimientos en la atención al cliente, corrección ortográfica y gramatical, traducciones en tiempo real; entre otros casos que gracias a este avance pueden ser implementados muy fácilmente.

Intel ayuda a la implementación de estos algoritmos con herramientas como OpenVINO, siendo capaz de optimizar ese algoritmo para que requiera la menor cantidad de procesamiento al momento de ejecutarse. Asimismo, con los últimos avances en hardware sobre cómo se ejecutan esas instrucciones, DL Boost y AVX 512 son algoritmos de red neuronal que permiten que las instrucciones se hagan en menos pasos, lo cual es un factor clave a la hora de llevar a la práctica los mismos.