¿Sabías por qué el Silicon Valley esta en contra de la IA no ética?

En medio de la creciente preocupación por la amenaza de los sistemas habilitados para IA para perpetuar la discriminación y el sesgo e infringir la privacidad , California ha presentado varios proyectos de ley destinados a frenar los impactos negativos. Los principales son los proyectos de ley relacionados con la mitigación de los impactos negativos de tecnologías específicas habilitadas para IA, como los sistemas de reconocimiento facial. El 14 de mayo de 2019, San Francisco se convirtió en la primera ciudad importante de los Estados Unidos en prohibir el uso de tecnología de reconocimiento facial por parte de las agencias municipales y las fuerzas del orden. Dos meses después, la ciudad vecina de Oakland implementó restricciones similares.

Estas pueden ser leyes a nivel de ciudad, pero su aprobación ha influido en la legislación estatal y federal. En California, un proyecto de ley llamado Ley de Responsabilidad de la Cámara Corporal busca prohibir el uso del reconocimiento facial en las cámaras corporales de la policía, mientras que otro requeriría que las empresas divulguen públicamente su uso de la tecnología de reconocimiento facial. A nivel federal, actualmente se proponen cuatro leyes para limitar el uso de esta tecnología, especialmente en la aplicación de la ley.

A raíz del transformador Reglamento General de Protección de Datos de la UE , California aprobó la primera ley nacional de privacidad de datos de los EE. UU. La Ley de Privacidad del Consumidor de California (CCPA) se convirtió en ley en 2018 y entrará en vigencia en enero de 2020. La CCPA otorga a los consumidores el derecho de solicitar a las empresas que revelen los datos que tienen sobre ellos, solicitar la eliminación de datos, restringir la venta de sus datos a terceros y demandar por violaciones de datos. Esta Ley también ha hecho sentir su influencia a nivel federal, lo que provocó el desarrollo de una ley federal de privacidad de datos . Estas leyes de privacidad de datos son particularmente relevantes para campos dependientes de datos como AI.

Integridad electoral

En respuesta a la grave amenaza que representan los robots habilitados para la IA y las falsificaciones profundas para la integridad electoral, el gobierno de California ha impulsado leyes progresivas que han influido en los esfuerzos federales e internacionales. Aprobada en 2018, la ” Ley de divulgación de Bots ” hace que sea ilegal usar un bot para influir en una transacción comercial o un voto en una elección sin divulgación en California. Esto incluye bots desplegados por compañías en otros estados y países, lo que requiere que esas compañías desarrollen estándares a medida para los residentes de California o armonicen sus estrategias en todas las jurisdicciones para mantener la eficiencia. A nivel federal, la ” Ley de divulgación y responsabilidad de Bots”Incluye muchas de las mismas estrategias propuestas en California. El ” Proyecto de ley Anti-Deepfakes ” de California busca mitigar la propagación y el impacto de los deepfakes políticos maliciosos antes de una elección y la ” Ley Federal de Responsabilidad de Deepfakes ” busca hacer lo mismo.

Riesgos y desafíos.

Si bien California puede liderar la implementación de estrategias de gobernanza de IA responsables, las leyes mal concebidas, especialmente aquellas que influyen en estrategias similares a nivel federal e internacional, causarán más daño que bien. Tomemos, por ejemplo, la “Ley de divulgación de Bots”; Algunos comentaristas han denunciado la falta de claridad en la Ley sobre lo que es y no está determinado como un “bot” y los roles y responsabilidades de las partes, especialmente las plataformas, para identificar y detener la influencia de los robots maliciosos. Esto debilita su implementabilidad e impacto. Las iniciativas federales modeladas según la ley de California servirán para erosionar aún más la responsabilidad y la confianza pública.

También existe el riesgo de que una legislación beneficiosa se politice de manera inútil. Estamos viendo un mayor rechazo federal contra el “efecto California”, como lo demuestran los esfuerzos recientes para revocar la capacidad de California de implementar estándares de emisión más estrictos que las pautas federales. Las iniciativas federales pueden tratar de reducir el impacto del estado en los estándares nacionales e internacionales para el gobierno responsable de la IA. Esto ya se está presenciando en los esfuerzos federales para evitar el CCPA.

Entendiéndolo

California está impulsando rápidamente la legislación sobre IA, que abarca desde la supervisión de la discriminación y el sesgo hasta la protección de la privacidad y la integridad electoral. La progresiva legislación de IA de California ya ha tenido una marcada influencia en los esfuerzos federales, y probablemente tendrá un alcance global si las compañías de IA con sede en California, incluidas Google, Facebook y OpenAI, alteran sus prácticas. El estado tiene la oportunidad y la obligación de liderar el camino para establecer estándares y supervisión efectivos que garanticen que los sistemas de IA se desarrollen y se implementen de manera segura y responsable. California puede proporcionar orientación sobre la gobernanza responsable de la IA para el resto del país y el mundo, pero se debe tener precaución para implementar la debida diligencia en la identificación y mitigación de cualquier impacto negativo antes de que sea demasiado tarde.