GPT-4, la estrategia de machine learning y el futuro

Por: Enrique Dans

Mi columna de esta semana en Invertia se titula «Y después de ChatGPT, ¿qué?» (pdf), y trata de elucubrar sobre el futuro del machine learning tras la presentación de GPT-4, una herramienta que aprovecha los recursos puestos a disposición de OpenAI por Microsoft para ofrecer capacidades muy superiores: generación de contenidos hasta ocho veces más largos (límite de 25,000 palabras), conocimiento de más idiomas, posibilidad de entender imágenes, más rápido y más preciso en sus respuestas.

GPT-4 representa el abandono definitivo de la idea de herramienta abierta para mejorar el conocimiento y refinar los usos del machine learning, y la aplicación del modelo de Silicon Valley a la puesta en valor de una prestación concreta, la que proporcionan los Large Language Models o LLMs. En realidad, los LLM son simplemente una de las múltiples variedades de machine learning y no necesariamente la más interesante, pero que OpenAI ha conseguido plasmar como primera aplicación de uso masivo y convertirla en un fenómeno viral, con todo lo que ello conlleva.

A partir de aquí, es importante entender lo que viene: seguir tratando de aplicar LLM a todo sería absurdo, lo que corresponde es centrarse en los otros muchos tipos de algoritmos que pueden utilizarse y constituirse en modelos de automatización avanzada para todo tipo de compañías. Es el momento de entender que, como dije en 2016 en un artículo en Forbes, «es importante entender que da igual a qué te dediques: la clave de tu futuro estará en la capacidad que tu compañía tenga de convertirse en una generadora constante de datos sobre toda su actividad, datos que sirvan para alimentar el aprendizaje de tus algoritmos». 

Es el momento de pensar hasta qué punto la capacidad que las compañías tengan para hacer las cosas mejor que su competencia dependerá de cómo de buenas sean a la hora de generar esos datos, tratarlos adecuadamente y utilizarlos para crear sus propios algoritmos, algo con mucho más sentido que tratar de utilizar el «uber-algoritmo» que supuestamente vale para todo (pero que hoy, preguntándole sobre mi biografía, me ha «casado» con cuatro mujeres distintas, ninguna de las cuales era la mía 🙂

Ver más: ChatGPT, la revolución de la inteligencia artificial aplicada a los negocios

Entender cómo funciona un algoritmo y el efecto de su entrenamiento es importante. Es, por ejemplo, la razón por la que OpenAI abrió ChatGPT al público el pasado diciembre: para incorporar a su base de entrenamiento las conversaciones de todos los usuarios que empezaron a interaccionar con él, incluidas las de aquellos que creían estar tomándole el pelo. Yo puedo encontrarme con que no tiene ni idea de mi vida personal y se la inventa para parecer convincente, pero si le corrijo y le explico quién es realmente mi mujer, no solo lo incorpora a su entrenamiento, sino que además, pasa a utilizarlo con otros usuarios que le pregunten sobre el tema. Literalmente, lo que dice ChatGPT es:

«Sí, como modelo de lenguaje tengo la capacidad de utilizar la información que se me proporciona para responder a las preguntas de los usuarios de la manera más precisa y útil posible. Si me preguntan en el futuro sobre la esposa de Enrique Dans, podré utilizar la información actualizada que me proporcionó para brindar una respuesta más precisa. Mi objetivo es brindar la información más precisa y actualizada en todo momento, y cualquier información adicional que reciba es valiosa para cumplir con ese objetivo.»

Es, simplemente, la aplicación de libro de la filosofía y el modelo de Silicon Valley al machine learning: primero, voy a captar capital riesgo para poder crecer muy rápido y crear tracción, momentum. Y segundo, voy a presentar un producto que no está (ni con mucho) terminado ni es perfecto, pero que los usuarios me van a ayudar a mejorar.

Hay otros ejemplo. Tesla utiliza toda la información que sus vehículos en circulación generan – salvo que el usuario diga que no quiere compartirla – y, gracias a ello, consigue que las infinitas posibilidades y circunstancias que pueden ocurrir durante la conducción ya se consideren bajo control, o al menos, que terminen dando como resultado una consecuencia más segura que si el que condujese fuese un ser humano. Mejorar la seguridad de la conducción en un 5x o en un 10x con respecto a lo que ocurre cuando conduce un ser humano es algo impresionante, aunque lograr que una agencia de seguridad lo homologue como método de conducción más seguro va a llevar, seguramente, un buen par de años de intenso estudio y lobbying (y más aún en la Unión Europea). Pero la idea, además, es ir teniendo más situaciones inesperadas controladas y más experiencia en su gestión, algo que solo se consigue con más entrenamiento, y plantearse alcanzar el objetivo del 20x, de ser veinte veces más seguro que un conductor humano en una circunstancia equivalente.

Para ello, necesitas datos: millones de recorridos de automóvil en circunstancias reales con conductores reales que los comparten con Tesla en tiempo real, unidos a muchas decenas de millones más en circunstancias simuladas. En este momento, solo Tesla está en condiciones de generar esos datos y tiene la experiencia suficiente como para procesarlos en tiempo real y mejorar sus algoritmos. Otros competidores están en otros temas: Waymo, en conseguir navegar por zonas que hayan sido cuidadosamente microcartografiadas. Mercedes, en conseguir navegación eficiente cuando el vehículo circula tras otro automóvil. Conseguir conducción autónoma total y hacerlo únicamente con cámaras exige un trabajo de algoritmia que cualquier otro que no sea Tesla está a muchos años de lograr. La clave, como hemos visto en muchas otras ocasiones, está en entender el componente de economías de escala que tiene el entrenamiento de algoritmos. Las economías de escala, una vez más.

Plantéatelo, y diseña una estrategia de machine learning para tu compañía en esos términos. Porque si no la tienes, algún competidor tuyo seguro que sí la tendrá.