octubre 14, 2024

La ciudad de Nueva York se prepara para regular el uso de IA en el reclutamiento

Los legisladores de la UE están terminando el trabajo sobre una ley de IA. La administración de Biden y los líderes del Congreso tienen sus planes para frenar la inteligencia artificial. Sam Altman, le directeur général d’OpenAI, créateur de la sensation d’intelligence artificielle ChatGPT, a recommandé la création d’une agence fédérale dotée d’un pouvoir de surveillance et d’octroi de licences lors d’un témoignage au Sénat la la semana pasada. Y el tema se planteó en la cumbre del G7 en Japón.

En medio de amplios planes y promesas, la ciudad de Nueva York se ha convertido en una modesta pionera en la regulación de la IA.

El gobierno de la ciudad aprobó una ley en 2021 y adoptó reglas específicas el mes pasado para una aplicación de tecnología de alto riesgo: decisiones de contratación y promoción. La ejecución comienza en julio.

La ley de la ciudad requiere que las empresas que utilizan software de contratación de IA notifiquen a los solicitantes que se está utilizando un sistema automatizado. También requiere que las empresas hagan que la tecnología sea revisada anualmente por auditores independientes en busca de sesgo. Los candidatos pueden solicitar y ser informados de los datos recogidos y analizados. Las empresas serán multadas por violaciones.

El enfoque específico de la ciudad de Nueva York representa un frente importante en la regulación de la IA. En algún momento, los principios generales elaborados por los gobiernos y las organizaciones internacionales, dicen los expertos, deben traducirse en detalles y definiciones. ¿Quién se ve afectado por la tecnología? ¿Cuáles son las ventajas y desventajas? ¿Quién puede intervenir y cómo?

«Sin un caso de uso concreto, no está en condiciones de responder a estas preguntas», dijo Julia Stoyanovich, profesora asociada de la Universidad de Nueva York y directora de su Centro para la IA Responsable.

Pero incluso antes de que entrara en vigor, la ley de la ciudad de Nueva York generó críticas. Los defensores del interés público dicen que no va lo suficientemente lejos, mientras que los grupos empresariales dicen que no es práctico.

Las quejas de ambos lados apuntan al desafío de la regulación de la IA, que avanza a un ritmo vertiginoso con consecuencias desconocidas, generando entusiasmo y ansiedad.

Los compromisos delicados son inevitables.

La Sra. Stoyanovich teme que la ley municipal tenga lagunas que puedan debilitarla. «Pero es mucho mejor que no tener una ley», dijo. «Y hasta que no intentes regular, no aprenderás cómo hacerlo».

La ley se aplica a las empresas con trabajadores en Nueva York, pero los expertos laborales esperan que influya en las prácticas en todo el país. Al menos cuatro estados (California, Nueva Jersey, Nueva York y Vermont) y el Distrito de Columbia también están trabajando en leyes para regular la IA en la contratación. E Illinois y Maryland han promulgado leyes que restringen el uso de tecnologías de IA específicas, a menudo para la vigilancia en el lugar de trabajo y la selección de candidatos.

Las leyes de la ciudad de Nueva York surgieron de un choque de puntos de vista muy opuestos. El concejo municipal lo aprobó durante los últimos días de la administración del alcalde Bill de Blasio. Las rondas de audiencias y comentarios públicos, más de 100,000 palabras, vinieron después, supervisadas por el Departamento de Protección al Consumidor y al Trabajador de la ciudad, la agencia reguladora.

El resultado, dicen algunos críticos, es demasiado favorable a los intereses comerciales.

«Lo que podría haber sido una legislación histórica se diluyó hasta perder su eficacia», dijo Alexandra Givens, presidenta del Centro para la Democracia y la Tecnología, una organización política y de derechos civiles.

Eso se debe a que la ley define una «herramienta de decisión de empleo automatizada» como la tecnología utilizada «para ayudar o reemplazar sustancialmente la toma de decisiones discrecional», dijo. Las reglas adoptadas por la ciudad parecen interpretar esta redacción de manera restringida, de modo que el software de IA solo requiere una auditoría si es el factor único o principal en una decisión de contratación o si se usa para cancelar un trabajo humano”, dijo la Sra. Givens.

Eso deja de lado la forma principal en que se usa el software automatizado, dijo, y un gerente de contratación invariablemente toma la decisión final. El potencial de discriminación basada en la IA, dijo, generalmente proviene de la selección de cientos o miles de solicitantes hasta un puñado o reclutamiento en línea específico para generar un grupo de candidatos.

La Sra. Givens también criticó la ley por limitar los tipos de grupos medidos por trato injusto. Abarca los prejuicios de género, raciales y étnicos, pero no la discriminación contra los trabajadores mayores o las personas con discapacidad.

«Mi mayor preocupación es que esto se convierta en el patrón en todo el país cuando deberíamos pedir mucho más a quienes toman las decisiones», dijo la Sra. Givens.

La ley se hizo más estricta para refinarla y garantizar que fuera específica y aplicable, dijeron funcionarios de la ciudad. El Concejo y la agencia de protección de los trabajadores escucharon muchas voces, incluyendo activistas de interés público y compañías de software. Su objetivo era sopesar las compensaciones entre la innovación y el daño potencial, dijeron los funcionarios.

«Este es un éxito regulatorio significativo para garantizar que la tecnología de IA se use de manera ética y responsable», dijo Robert Holden, quien era presidente del comité de tecnología del consejo cuando se aprobó la ley y sigue siendo miembro del comité.

La ciudad de Nueva York está tratando de abordar las nuevas tecnologías en el contexto de las leyes laborales federales con pautas de contratación que datan de la década de 1970. El empleo estipula que ninguna práctica o método de selección utilizado por los empleadores debe tener un «impacto dispar» en un grupo legalmente protegido como como mujeres o minorías.

Las empresas han criticado la ley. En una presentación de este año, Software Alliance, un grupo comercial que incluye a Microsoft, SAP y Workday, dijo que exigir auditorías independientes de IA «no era factible» porque «el panorama de la auditoría es incipiente», careciendo de estándares y organismos de supervisión profesional.

Pero un dominio naciente es una oportunidad de mercado. Según los expertos, la industria de auditoría de IA solo crecerá. Ya está atrayendo bufetes de abogados, consultores y empresas emergentes.

Las empresas que venden software de inteligencia artificial para ayudar con las decisiones de contratación y promoción generalmente han adoptado las regulaciones. Algunos ya se han sometido a auditorías externas. Ven el requisito como una ventaja competitiva potencial, lo que demuestra que su tecnología está ampliando el grupo de candidatos laborales para las empresas y aumentando las oportunidades para los trabajadores.

«Creemos que podemos cumplir con la ley y mostrar cómo es una buena IA», dijo Roy Wang, asesor general de Eightfold AI, una startup de Silicon Valley que produce software que se utiliza para ayudar a los gerentes de contratación.

La ley de la ciudad de Nueva York también está adoptando un enfoque para regular la IA que podría convertirse en la norma. La medida clave de la ley es una «relación de impacto», o un cálculo del efecto del uso del software en un grupo protegido de solicitantes de empleo. No analiza cómo un algoritmo toma decisiones, un concepto conocido como «explicabilidad».

En aplicaciones que afectan la vida como la contratación, dicen los críticos, las personas tienen derecho a una explicación de cómo se tomó una decisión. Pero la IA, como el software similar a ChatGPT, se está volviendo más compleja, lo que quizás pone fuera de alcance el objetivo de una IA explicable, dicen algunos expertos.

“El enfoque se convierte en el resultado del algoritmo, no en la operación del algoritmo”, dijo Ashley Casovan, directora ejecutiva del Instituto de IA responsable, que desarrolla certificaciones para el uso seguro de aplicaciones de IA en el trabajo, la atención médica y las finanzas. .