Bill Gates: Los riesgos de la IA son reales pero manejables

Por: Bill Gates

Los riesgos creados por la inteligencia artificial pueden parecer abrumadores. ¿Qué les sucede a las personas que pierden sus trabajos por culpa de una máquina inteligente? ¿Podría la IA afectar los resultados de una elección? ¿Qué pasa si una futura IA decide que ya no necesita a los humanos y quiere deshacerse de nosotros?

Todas estas son preguntas justas, y las preocupaciones que plantean deben tomarse en serio. Pero hay una buena razón para pensar que podemos lidiar con ellos: esta no es la primera vez que una innovación importante ha introducido nuevas amenazas que deben controlarse. Lo hemos hecho antes.

Ya sea por la introducción de los automóviles o el auge de las computadoras personales e Internet, las personas se las han arreglado para atravesar otros momentos transformadores y, a pesar de muchas turbulencias, al final han salido ganando. Poco después de que los primeros automóviles estuvieran en la carretera, se produjo el primer accidente automovilístico. Pero no prohibimos los autos: adoptamos límites de velocidad, estándares de seguridad, requisitos de licencia, leyes sobre conducir ebrio y otras reglas viales.

Ahora estamos en la etapa más temprana de otro cambio profundo, la Era de la IA. Es análogo a esos tiempos inciertos antes de los límites de velocidad y los cinturones de seguridad. La IA está cambiando tan rápido que no está claro exactamente qué sucederá a continuación. Nos enfrentamos a grandes preguntas planteadas por la forma en que funciona la tecnología actual, las formas en que las personas la usarán con malas intenciones y las formas en que la IA nos cambiará como sociedad y como individuos.

En un momento como este, es natural sentirse inquieto. Pero la historia demuestra que es posible resolver los desafíos creados por las nuevas tecnologías.

He escrito antes sobre cómo la IA va a revolucionar nuestras vidas. Ayudará a resolver problemas (en salud, educación, cambio climático y más) que solían parecer intratables. La Fundación Gates lo está convirtiendo en una prioridad, y nuestro CEO, Mark Suzman, compartió recientemente cómo piensa sobre su papel en la reducción de la inequidad.

Tendré más que decir en el futuro sobre los beneficios de la IA, pero en esta publicación quiero reconocer las preocupaciones que escucho y leo con más frecuencia, muchas de las cuales comparto, y explicar lo que pienso sobre ellas.

Una cosa que está clara de todo lo que se ha escrito hasta ahora sobre los riesgos de la IA, y se ha escrito mucho, es que nadie tiene todas las respuestas. Otra cosa que tengo clara es que el futuro de la IA no es tan sombrío como piensan algunas personas ni tan optimista como piensan otras. Los riesgos son reales, pero soy optimista de que se pueden gestionar. A medida que analice cada inquietud, regresaré a algunos temas:

  • – Muchos de los problemas causados por la IA tienen un precedente histórico. Por ejemplo, tendrá un gran impacto en la educación, pero también lo hicieron las calculadoras portátiles hace unas décadas y, más recientemente, permitir las computadoras en el aula. Podemos aprender de lo que funcionó en el pasado.
    – Muchos de los problemas causados por la IA también se pueden manejar con la ayuda de la IA.
    Tendremos que adaptar las leyes antiguas y adoptar otras nuevas, al igual que las leyes existentes contra el fraude tuvieron que adaptarse al mundo en línea.
    – En esta publicación, me centraré en los riesgos que ya están presentes, o que pronto lo estarán. No estoy lidiando con lo que sucede cuando desarrollamos una IA que puede aprender cualquier tema o tarea, a diferencia de las IA especialmente diseñadas de hoy. Ya sea que lleguemos a ese punto en una década o en un siglo, la sociedad deberá enfrentarse a preguntas profundas. ¿Qué pasa si una súper IA establece sus propios objetivos? ¿Qué pasa si entran en conflicto con la humanidad? ¿Deberíamos incluso hacer una súper IA?

Pero pensar en estos riesgos a más largo plazo no debe hacerse a expensas de los más inmediatos. Me volveré a ellos ahora.

Las deepfakes y la información errónea generada por la IA podrían socavar las elecciones y la democracia.


La idea de que la tecnología se puede utilizar para difundir mentiras y falsedades no es nueva. La gente lo ha estado haciendo con libros y folletos durante siglos. Se hizo mucho más fácil con la llegada de los procesadores de texto, las impresoras láser, el correo electrónico y las redes sociales.

AI toma este problema del texto falso y lo amplía, lo que permite que prácticamente cualquier persona cree audio y video falsos, conocidos como falsificaciones profundas. Si recibe un mensaje de voz que suena como si su hijo dijera “Me han secuestrado, envíe $ 1,000 a esta cuenta bancaria dentro de los próximos 10 minutos y no llame a la policía”, va a tener un impacto emocional terrible. más allá del efecto de un correo electrónico que dice lo mismo.

En una escala mayor, las falsificaciones profundas generadas por IA podrían usarse para intentar inclinar una elección. Por supuesto, no se necesita tecnología sofisticada para sembrar dudas sobre el ganador legítimo de una elección, pero la IA lo hará más fácil.

Ya hay videos falsos que presentan imágenes fabricadas de políticos conocidos. Imagine que en la mañana de una elección importante, un video que muestra a uno de los candidatos robando un banco se vuelve viral. Es falso, pero los medios de comunicación y la campaña tardan varias horas en probarlo. ¿Cuántas personas lo verán y cambiarán sus votos en el último minuto? Podría inclinar la balanza, especialmente en una elección reñida.

Cuando el cofundador de OpenAI, Sam Altman, testificó ante un comité del Senado de EE. UU. recientemente, los senadores de ambos partidos se concentraron en el impacto de AI en las elecciones y la democracia. Espero que este tema siga ocupando un lugar destacado en la agenda de todos.

Ciertamente no hemos resuelto el problema de la desinformación y las falsificaciones profundas. Pero dos cosas me hacen cautelosamente optimista. Una es que las personas son capaces de aprender a no tomar todo al pie de la letra. Durante años, los usuarios de correo electrónico cayeron en estafas en las que alguien que se hacía pasar por un príncipe nigeriano prometía una gran recompensa a cambio de compartir su número de tarjeta de crédito. Pero eventualmente, la mayoría de las personas aprendieron a mirar dos veces esos correos electrónicos. A medida que las estafas se volvieron más sofisticadas, también lo hicieron muchos de sus objetivos. Tendremos que desarrollar el mismo músculo para las falsificaciones profundas.

La otra cosa que me da esperanzas es que la IA puede ayudar a identificar falsificaciones profundas y crearlas. Intel, por ejemplo, ha desarrollado un detector de falsificación profunda y la agencia gubernamental DARPA está trabajando en tecnología para identificar si se ha manipulado el video o el audio.

Este será un proceso cíclico: alguien encuentra una manera de detectar la falsificación, alguien más descubre cómo contrarrestarlo, alguien más desarrolla contramedidas, y así sucesivamente. No será un éxito perfecto, pero tampoco seremos indefensos.

La IA facilita el lanzamiento de ataques contra personas y gobiernos.


Hoy en día, cuando los piratas informáticos quieren encontrar fallas explotables en el software, lo hacen por la fuerza bruta: escriben código que ataca las debilidades potenciales hasta que descubren una forma de entrar. Implica recorrer muchos callejones sin salida, lo que significa que lleva tiempo y paciencia.

Los expertos en seguridad que quieren contrarrestar a los piratas informáticos deben hacer lo mismo. Cada parche de software que instala en su teléfono o computadora portátil representa muchas horas de búsqueda, por parte de personas con buenas y malas intenciones por igual.

Los modelos de IA acelerarán este proceso al ayudar a los piratas informáticos a escribir un código más efectivo. También podrán usar información pública sobre personas, como dónde trabajan y quiénes son sus amigos, para desarrollar ataques de phishing más avanzados que los que vemos hoy.

La buena noticia es que la IA se puede utilizar tanto para buenos propósitos como para malos. Los equipos de seguridad del gobierno y del sector privado deben contar con las últimas herramientas para encontrar y reparar fallas de seguridad antes de que los delincuentes puedan aprovecharlas. Espero que la industria de la seguridad del software amplíe el trabajo que ya están haciendo en este frente; debería ser una de sus principales preocupaciones.

Esta es también la razón por la que no debemos tratar de evitar temporalmente que las personas implementen nuevos desarrollos en IA, como algunos han propuesto. Los ciberdelincuentes no dejan de fabricar nuevas herramientas. Tampoco lo harán las personas que quieran usar IA para diseñar armas nucleares y ataques bioterroristas. El esfuerzo por detenerlos debe continuar al mismo ritmo.

Existe un riesgo relacionado a nivel global: una carrera armamentista por la IA que puede usarse para diseñar y lanzar ataques cibernéticos contra otros países. Todos los gobiernos quieren tener la tecnología más poderosa para poder disuadir los ataques de sus adversarios. Este incentivo para no dejar que nadie se adelante podría desencadenar una carrera para crear ciberarmas cada vez más peligrosas. Todos estarían peor.

Ese es un pensamiento aterrador, pero tenemos la historia para guiarnos. Aunque el régimen mundial de no proliferación nuclear tiene sus fallas, ha evitado la guerra nuclear total que mi generación temía tanto cuando éramos niños. Los gobiernos deberían considerar la creación de un organismo global para la IA similar a la Agencia Internacional de Energía Atómica.

La IA le quitará el trabajo a la gente.


En los próximos años, el principal impacto de la IA en el trabajo será ayudar a las personas a hacer su trabajo de manera más eficiente. Eso será cierto ya sea que trabajen en una fábrica o en una oficina manejando llamadas de ventas y cuentas por pagar. Eventualmente, la IA será lo suficientemente buena para expresar ideas que podrá escribir sus correos electrónicos y administrar su bandeja de entrada por usted. Podrá escribir una solicitud en inglés sencillo o en cualquier otro idioma y generar una presentación rica en su trabajo.

Como argumenté en mi publicación de febrero, es bueno para la sociedad cuando aumenta la productividad. Le da a la gente más tiempo para hacer otras cosas, en el trabajo y en casa. Y la demanda de personas que ayuden a los demás (enseñando, cuidando pacientes y apoyando a los ancianos, por ejemplo) nunca desaparecerá. Pero es cierto que algunos trabajadores necesitarán apoyo y capacitación a medida que hacemos esta transición hacia un lugar de trabajo impulsado por IA. Ese es un papel para los gobiernos y las empresas, y deberán administrarlo bien para que los trabajadores no se queden atrás, para evitar el tipo de interrupción en la vida de las personas que ha ocurrido durante la disminución de los trabajos de fabricación en los Estados Unidos.

Además, tenga en cuenta que esta no es la primera vez que una nueva tecnología provoca un gran cambio en el mercado laboral. No creo que el impacto de la IA sea tan dramático como el de la Revolución Industrial, pero ciertamente será tan grande como la introducción de la PC. Las aplicaciones de procesamiento de textos no acabaron con el trabajo de oficina, pero lo cambiaron para siempre. Los empleadores y los empleados tuvieron que adaptarse, y lo hicieron. El cambio causado por la IA será una transición accidentada, pero hay muchas razones para pensar que podemos reducir la interrupción de la vida y los medios de subsistencia de las personas.

AI hereda nuestros sesgos e inventa cosas.


Las alucinaciones, el término para cuando una IA hace una afirmación con confianza que simplemente no es cierta, generalmente ocurren porque la máquina no entiende el contexto de su solicitud. Pídele a una IA que escriba una historia corta sobre unas vacaciones en la luna y podría darte una respuesta muy imaginativa. Pero pídale que lo ayude a planificar un viaje a Tanzania y podría intentar enviarlo a un hotel que no existe.

Otro riesgo de la inteligencia artificial es que refleja o incluso empeora los prejuicios existentes contra personas de ciertas identidades de género, razas, etnias, etc.

Para comprender por qué ocurren las alucinaciones y los sesgos, es importante saber cómo funcionan los modelos de IA más comunes en la actualidad. Básicamente, son versiones muy sofisticadas del código que permite que su aplicación de correo electrónico prediga la siguiente palabra que va a escribir: escanean enormes cantidades de texto, casi todo lo que está disponible en línea, en algunos casos, y lo analizan para encontrar patrones en lenguaje humano

Cuando le haces una pregunta a una IA, mira las palabras que usaste y luego busca fragmentos de texto que a menudo están asociados con esas palabras. Si escribe “enumerar los ingredientes para panqueques”, podría notar que las palabras “harina, azúcar, sal, levadura en polvo, leche y huevos” a menudo aparecen con esa frase. Luego, en base a lo que sabe sobre el orden en que suelen aparecer esas palabras, genera una respuesta. (Los modelos de IA que funcionan de esta manera usan lo que se llama un transformador. GPT-4 es uno de esos modelos).

Este proceso explica por qué una IA puede experimentar alucinaciones o parecer parcial. No tiene contexto para las preguntas que haces o las cosas que le dices. Si le dices a uno que cometió un error, podría decir: “Lo siento, lo escribí mal”. Pero eso es una alucinación, no escribió nada. Solo dice eso porque ha escaneado suficiente texto para saber que “Lo siento, lo escribí mal” es una oración que la gente suele escribir después de que alguien los corrige.

Del mismo modo, los modelos de IA heredan los prejuicios que están integrados en el texto en el que están capacitados. Si uno lee mucho sobre, digamos, médicos, y el texto menciona principalmente a médicos varones, entonces sus respuestas supondrán que la mayoría de los médicos son hombres.

Aunque algunos investigadores piensan que las alucinaciones son un problema inherente, no estoy de acuerdo. Soy optimista de que, con el tiempo, se puede enseñar a los modelos de IA a distinguir la realidad de la ficción. OpenAI, por ejemplo, está haciendo un trabajo prometedor en este frente.

Otras organizaciones, incluido el Instituto Alan Turing y el Instituto Nacional de Estándares y Tecnología, están trabajando en el problema del sesgo. Un enfoque es construir valores humanos y razonamiento de alto nivel en la IA. Es similar a la forma en que trabaja un ser humano consciente de sí mismo: tal vez asumes que la mayoría de los médicos son hombres, pero eres lo suficientemente consciente de esta suposición como para saber que tienes que luchar contra ella intencionalmente. La IA puede funcionar de manera similar, especialmente si los modelos están diseñados por personas de diversos orígenes.

Finalmente, todos los que usan IA deben ser conscientes del problema del sesgo y convertirse en un usuario informado. El ensayo que le pides a una IA que redacte podría estar tan plagado de prejuicios como de errores fácticos. Deberá verificar los sesgos de su IA, así como los suyos.

Los estudiantes no aprenderán a escribir porque la IA hará el trabajo por ellos.


Muchos docentes están preocupados por las formas en que la IA socavará su trabajo con los estudiantes. En una época en la que cualquier persona con acceso a Internet puede usar IA para escribir un primer borrador respetable de un ensayo, ¿qué impide que los estudiantes lo entreguen como si fuera su propio trabajo?

Ya existen herramientas de IA que están aprendiendo a saber si algo fue escrito por una persona o por una computadora, para que los maestros puedan saber cuándo sus alumnos no están haciendo su propio trabajo. Pero algunos maestros no están tratando de evitar que sus alumnos usen IA en sus escritos, en realidad lo están alentando.

En enero, una maestra de inglés veterana llamada Cherie Shields escribió un artículo en Education Week sobre cómo usa ChatGPT en su salón de clases. Ha ayudado a sus alumnos con todo, desde comenzar con un ensayo hasta escribir esquemas e incluso brindarles comentarios sobre su trabajo.

“Los maestros tendrán que adoptar la tecnología de inteligencia artificial como otra herramienta a la que los estudiantes tienen acceso”, escribió. “Al igual que una vez les enseñamos a los estudiantes cómo hacer una búsqueda adecuada en Google, los maestros deben diseñar lecciones claras sobre cómo el bot ChatGPT puede ayudar con la redacción de ensayos. Reconocer la existencia de la IA y ayudar a los estudiantes a trabajar con ella podría revolucionar la forma en que enseñamos”. No todos los maestros tienen tiempo para aprender y usar una nueva herramienta, pero los educadores como Cherie Shields argumentan que aquellos que lo hacen se beneficiarán mucho.

Me recuerda la época en que las calculadoras electrónicas se generalizaron en las décadas de 1970 y 1980. A algunos profesores de matemáticas les preocupaba que los estudiantes dejaran de aprender a hacer aritmética básica, pero otros adoptaron la nueva tecnología y se centraron en las habilidades de pensamiento detrás de la aritmética.

Hay otra forma en que la IA puede ayudar con la escritura y el pensamiento crítico.

Especialmente en estos primeros días, cuando las alucinaciones y los sesgos siguen siendo un problema, los educadores pueden hacer que la IA genere artículos y luego trabaje con sus alumnos para verificar los hechos. Las organizaciones educativas sin fines de lucro como Khan Academy y OER Project, que yo financio, ofrecen a los maestros y estudiantes herramientas en línea gratuitas que ponen un gran énfasis en probar afirmaciones. Pocas habilidades son más importantes que saber distinguir lo que es verdadero de lo que es falso.

Necesitamos asegurarnos de que el software educativo ayude a cerrar la brecha de rendimiento, en lugar de empeorarla. El software de hoy está principalmente orientado a capacitar a los estudiantes que ya están motivados. Puede desarrollar un plan de estudio para usted, orientarlo hacia buenos recursos y evaluar su conocimiento. Pero aún no sabe cómo atraerlo hacia un tema que aún no le interesa. Ese es un problema que los desarrolladores deberán resolver para que los estudiantes de todo tipo puedan beneficiarse de la IA.

¿Que sigue?


Creo que hay más razones que no para ser optimistas de que podemos gestionar los riesgos de la IA mientras maximizamos sus beneficios. Pero tenemos que movernos rápido.

Los gobiernos deben desarrollar experiencia en inteligencia artificial para que puedan elaborar leyes y regulaciones informadas que respondan a esta nueva tecnología. Tendrán que lidiar con la desinformación y las falsificaciones profundas, las amenazas a la seguridad, los cambios en el mercado laboral y el impacto en la educación. Para citar solo un ejemplo: la ley debe ser clara sobre qué usos de las falsificaciones profundas son legales y cómo se deben etiquetar las falsificaciones profundas para que todos entiendan cuándo algo que están viendo o escuchando no es genuino.

Los líderes políticos deberán estar equipados para tener un diálogo informado y reflexivo con sus electores. También deberán decidir cuánto colaborar con otros países en estos temas en lugar de hacerlo solos.

En el sector privado, las empresas de IA deben realizar su trabajo de manera segura y responsable. Eso incluye proteger la privacidad de las personas, asegurarse de que sus modelos de IA reflejen los valores humanos básicos, minimizar los sesgos, distribuir los beneficios a tantas personas como sea posible y evitar que la tecnología sea utilizada por delincuentes o terroristas. Las empresas de muchos sectores de la economía deberán ayudar a sus empleados a hacer la transición a un lugar de trabajo centrado en la IA para que nadie se quede atrás. Y los clientes siempre deben saber cuándo están interactuando con una IA y no con un ser humano.

Finalmente, animo a todos a seguir los desarrollos en IA tanto como sea posible. Es la innovación más transformadora que cualquiera de nosotros verá en nuestras vidas, y un debate público saludable dependerá de que todos conozcan la tecnología, sus beneficios y sus riesgos. Los beneficios serán enormes y la mejor razón para creer que podemos manejar los riesgos es que lo hemos hecho antes.

Ver más: Artificial Intelligence: Bill Gates cree que la arrasará con Amazon y Google

Ver más: Artificial Intelligence: Bill Gates lanza severos pronósticos sobre IA

Ver más: Bill Gates: La inteligencia artificial me tiene ”bastante impresionado”