Rechazan el consejo de ética de AI de Google por ser discriminatorio

Casi un millar de empleados de Google, investigadores académicos y otras figuras de la industria tecnológica han firmado una carta en protesta por la composición de un consejo independiente que Google creó para guiar la ética de sus proyectos de inteligencia artificial.

El gigante de las búsquedas anunció la creación del consejo la semana pasada en EmTech Digital, el evento de MIT Technology Review en San Francisco. Conocido como el Consejo Consultivo Externo de Tecnología Avanzada (ATEAC), tiene ocho miembros, incluidos economistas, filósofos, políticos y tecnólogos con experiencia en temas como el sesgo algorítmico. Tiene la intención de celebrar cuatro reuniones al año, a partir de este mes, y escribir informes diseñados para proporcionar comentarios sobre los proyectos en la empresa que utilizan inteligencia artificial.

Pero dos de esos miembros resultaron polémicos. Uno, Dyan Gibbens, es el CEO de Trumbull, una compañía que desarrolla sistemas autónomos para la industria de la defensa, una opción polémica dado que miles de empleados de Google protestaron por la decisión de la compañía de suministrar AI a la Fuerza Aérea de los EE. UU. La indignación más grande, sin embargo, ha sido la inclusión de Kay Coles James, presidente de la Fundación Heritage, un grupo de expertos que se opone a regular las emisiones de carbono, se opone a la inmigración y se opone a la protección de los derechos LGBTQ.

Un miembro del consejo, Alessandro Acquisti, profesor de la Universidad Carnegie Mellon que se especializa en temas de privacidad digital, anunció el 30 de marzo que no asumirá el cargo. “Si bien me dedico a investigar los problemas éticos clave de imparcialidad, derechos e inclusión en AI, no creo que este sea el foro adecuado para participar en este importante trabajo”, escribió.

La creación de ATEAC, y la inclusión de Gibbens y James, de hecho puede haber sido diseñada para apaciguar a los críticos de derecha de Google. Aproximadamente al mismo tiempo que se anunció el consejo, Sundar Pichai, CEO de Google, se reunió con el presidente Donald Trump. Más tarde, Trump twitteó: “Afirmó firmemente que está totalmente comprometido con los militares de los Estados Unidos, no con los militares chinos. [Nosotros] también discutimos la equidad política y varias cosas que Google puede hacer por nuestro país. ¡La reunión terminó muy bien! ”

Pero un empleado de Google involucrado en la redacción de la carta de protesta, quien habló bajo condición de anonimato, dijo que James es algo más que una voz conservadora en el consejo. “Ella es una reaccionaria que niega que existan personas trans, que respalda posiciones radicalmente antiinmigrantes y respalda posiciones contra el cambio climático y la ciencia”.

Algunos algoritmos de IA notables pueden reforzar los sesgos ya vistos en la sociedad; Se ha demostrado que algunos identifican erróneamente a las personas transgénero, por ejemplo. En ese contexto, “el hecho de que [James] fue incluido es bastante impactante”, dijo el empleado. “Estas tecnologías están configurando nuestras instituciones sociales, nuestras vidas y el acceso a los recursos. Cuando la IA falla, no falla para los hombres blancos ricos que trabajan en compañías de tecnología. “Falla exactamente para las poblaciones que las políticas de la Fundación Heritage ya pretenden perjudicar”.

Los mensajes publicados en una plataforma de comunicaciones interna de Google criticaron especialmente el nombramiento de James. Según una publicación, informada anteriormente por Verge y confirmada por el empleado, James “no merece una plataforma legitimada por Google, y ciertamente no pertenece a ninguna conversación sobre cómo se debe aplicar la tecnología de Google al mundo”.

La carta pública, publicada en Medium, había sido firmada por 855 empleados de Google y otras 143 personas, incluidos varios académicos destacados. “Las opiniones de James no solo son contrarias a los valores declarados de Google”, dice la carta, “sino que son directamente contrarias al proyecto de garantizar que el desarrollo y la aplicación de AI prioricen la justicia por encima de las ganancias. Un proyecto de este tipo debería colocar a los representantes de las comunidades vulnerables en el centro de la toma de decisiones “.