La IA se usa ampliamente, pero los legisladores han establecido pocas reglas
HogarHogar > Blog > La IA se usa ampliamente, pero los legisladores han establecido pocas reglas

La IA se usa ampliamente, pero los legisladores han establecido pocas reglas

Dec 28, 2023

La pantalla de bienvenida de la aplicación "ChatGPT" de OpenAI se muestra en la pantalla de una computadora portátil en una ilustración fotográfica. Más estados están considerando regulaciones para la inteligencia artificial y otros sistemas automatizados. Imágenes de León Neal/Getty.

En el otoño de 2016, el Departamento de Niños y Familias de Connecticut comenzó a usar una herramienta de análisis predictivo que prometía ayudar a identificar a los niños en peligro inminente.

La herramienta usó más de dos docenas de puntos de datos para comparar casos abiertos en el sistema de Connecticut con casos anteriores de asistencia social con malos resultados. Luego, cada niño recibió una puntuación predictiva que marcaba algunos casos para una intervención más rápida.

Sin embargo, incluso cuando más estados comenzaron a adoptar la herramienta, algunas agencias descubrieron que parecía pasar por alto los casos urgentes y señalar incorrectamente los menos graves. Un estudio publicado en la revista Child Abuse & Neglect descubrió más tarde que no mejoraba los resultados de los niños. Connecticut y varios otros estados abandonaron la herramienta, que fue desarrollada por una empresa privada en Florida. En 2021, cinco años después de que el Departamento de Niños y Familias de Connecticut usara la herramienta por primera vez, y dos años después de que el estado la desechara, los investigadores de la Universidad de Yale solicitaron información sobre la mecánica de su funcionamiento y concluyeron que la agencia nunca la había entendido.

"Este es un enorme, enorme problema de responsabilidad pública", dijo Kelsey Eberly, profesora clínica de la Facultad de Derecho de Yale. "Las agencias obtienen estas herramientas, las usan, confían en ellas, pero ni siquiera las entienden necesariamente. Y el público ciertamente no entiende estas herramientas, porque no las conoce".

Connecticut es el último estado en aprobar regulaciones explícitas para inteligencia artificial y otros sistemas automatizados, gracias en parte al legado de la herramienta para detectar niños en riesgo. Un proyecto de ley bipartidista aprobado el 30 de mayo, que se espera que promulgue el gobernador demócrata Ned Lamont, requeriría que las agencias estatales hagan un inventario y evalúen cualquier sistema gubernamental que use inteligencia artificial y cree un grupo de trabajo permanente para recomendar reglas adicionales.

Muchos estados ya regulan aspectos de estas tecnologías a través de estatutos contra la discriminación, protección del consumidor y privacidad de datos. Pero desde 2018, al menos 13 estados han establecido comisiones para estudiar específicamente la IA, y desde 2019, al menos siete estados han aprobado leyes destinadas a mitigar el sesgo, aumentar la transparencia o limitar el uso de sistemas automatizados, tanto en agencias gubernamentales como en el sector privado. .

Solo en 2023, los legisladores de 27 estados, además de Washington, DC y Puerto Rico, consideraron más de 80 proyectos de ley relacionados con la IA, según la Conferencia Nacional de Legislaturas Estatales.

Las herramientas de inteligencia artificial, definidas en términos generales como tecnologías que pueden realizar análisis complejos y tareas de resolución de problemas que antes estaban reservadas para los humanos, ahora determinan con frecuencia lo que los estadounidenses ven en las redes sociales, qué estudiantes ingresan a la universidad y si los candidatos de trabajo obtienen entrevistas.

Más de una cuarta parte de todas las empresas estadounidenses utilizaron IA de alguna forma en 2022, según el Índice de adopción de IA global de IBM. En un ejemplo sorprendente de la creciente ubicuidad de la IA, un proyecto de ley reciente para regular la tecnología en California generó comentarios de organizaciones tan diversas como una asociación comercial para la industria de comestibles y un sindicato estatal de enfermeras.

Pero la legislación federal se ha estancado, dejando la regulación a los gobiernos locales y creando un mosaico de leyes estatales y municipales.

"Estados Unidos ha sido muy liberal en la regulación de la tecnología durante muchos años", dijo Darrell M. West, miembro principal del Centro de Innovación Tecnológica del grupo de expertos Brookings Institution y autor de un libro sobre inteligencia artificial. "Pero a medida que vemos las trampas de la falta de regulación (el spam, el phishing, la vigilancia masiva), el clima público y el entorno de formulación de políticas han cambiado. La gente quiere ver esto regulado".

El interés de los legisladores en regular la tecnología aumentó durante esta sesión legislativa y es probable que crezca aún más el próximo año, gracias a la adopción generalizada de ChatGPT y otras herramientas de IA orientadas al consumidor, dijo Jake Morabito, director del Grupo de Trabajo de Comunicaciones y Tecnología de el conservador American Legislative Exchange Council (ALEC), que favorece menos regulación.

Una vez que la materia de ciencia ficción, la inteligencia artificial ahora aparece en prácticamente todos los rincones de la vida estadounidense. Los expertos y los formuladores de políticas a menudo han definido el término de manera amplia, para incluir sistemas que imitan la toma de decisiones, la resolución de problemas o la creatividad humana mediante el análisis de grandes cantidades de datos.

La IA ya alimenta un conjunto de herramientas de reconocimiento de voz e imagen, motores de búsqueda, filtros de spam, mapas digitales y programas de navegación, publicidad en línea y sistemas de recomendación de contenido. Los gobiernos locales han utilizado inteligencia artificial para identificar líneas de agua de plomo para reemplazarlas y acelerar la respuesta de emergencia. Un algoritmo de aprendizaje automático implementado en 2018 redujo drásticamente las muertes por sepsis en cinco hospitales en Washington, DC y Maryland.

Pero incluso cuando algunas aplicaciones de IA generan beneficios sociales nuevos e inesperados, los expertos han documentado innumerables sistemas automatizados con resultados sesgados, discriminatorios o inexactos. Se ha descubierto repetidamente que los servicios de reconocimiento facial utilizados por las fuerzas del orden público, por ejemplo, identifican falsamente a las personas de color con más frecuencia que a las personas blancas. Amazon eliminó una herramienta de reclutamiento de IA después de descubrir que el sistema penalizaba constantemente a las mujeres que buscaban trabajo.

Los críticos a veces describen el sesgo y el error de la IA como un problema de "basura que entra, basura que sale", dijo Mark Hughes, director ejecutivo de la organización de justicia racial Justice for All, con sede en Vermont. En varias apariciones ante un comité del Senado estatal el año pasado, Hughes testificó que los legisladores tendrían que intervenir para evitar que los sistemas automatizados perpetúen el sesgo y el racismo sistémico que a menudo aparecen inherentemente en sus datos de capacitación.

"Sabemos que la tecnología, especialmente algo como la IA, siempre replicará lo que ya existe", dijo Hughes a Stateline. "Y lo va a replicar para su distribución masiva".

Más recientemente, la llegada de ChatGPT y otras herramientas generativas de IA, que pueden crear escritura similar a la humana, imágenes realistas y otro contenido en respuesta a las indicaciones del usuario, han generado nuevas preocupaciones entre los funcionarios de la industria y del gobierno. Tales herramientas podrían, temen los legisladores, desplazar a los trabajadores, socavar la privacidad del consumidor y ayudar en la creación de contenido que viole los derechos de autor, difunda desinformación y amplifique el discurso de odio o el acoso. En una encuesta reciente de Reuters/Ipsos, más de dos tercios de los estadounidenses dijeron que estaban preocupados por los efectos negativos de la IA, y 3 de cada 5 dijeron que temían que pudiera amenazar a la civilización.

"Creo que la IA tiene un tremendo potencial para revolucionar la forma en que trabajamos y hacernos más eficientes, pero también existen peligros potenciales", dijo el senador estatal de Connecticut, James Maroney, demócrata y defensor de la ley de IA de ese estado. "Solo tenemos que ser cautelosos a medida que avanzamos".

Las nuevas regulaciones de IA de Connecticut brindan un modelo temprano e integral para abordar los sistemas automatizados, dijo Maroney, quien espera ver que las regulaciones se expandan del gobierno estatal al sector privado en futuras sesiones legislativas.

La ley crea una nueva Oficina de Inteligencia Artificial en el poder ejecutivo estatal, encargada de desarrollar nuevos estándares y políticas para los sistemas gubernamentales de IA. Para fin de año, la oficina también debe crear un inventario de los sistemas automatizados utilizados por las agencias estatales para tomar "decisiones críticas", como las relacionadas con la vivienda o la atención médica, y documentar que cumplen con ciertos requisitos de transparencia y no discriminación.

La ley se basa en recomendaciones de académicos de Yale y otras universidades, dijo Maroney, así como de una ley similar de 2021 en Vermont. Es probable que el modelo también surja en otros estados: los legisladores de Colorado, Minnesota y Montana ahora están trabajando con Connecticut para desarrollar políticas paralelas de inteligencia artificial, dijo Maroney, y varios estados, incluidos Maryland, Massachusetts, Rhode Island y Washington, han introducido medidas similares.

En Vermont, la ley ya ha creado un nuevo grupo de trabajo asesor y una División estatal de Inteligencia Artificial. En su primer inventario anual, Josiah Raiche, quien encabeza la división, encontró "alrededor de una docena" de sistemas automatizados en uso en el gobierno estatal. Esos incluyeron un proyecto de visión por computadora en el Departamento de Transporte que usa IA para evaluar baches y un software antivirus común que detecta malware en el sistema informático estatal. Ninguna herramienta presenta un riesgo de discriminación, dijo Raiche.

Pero las tecnologías emergentes podrían requerir más vigilancia, incluso si mejoran los servicios gubernamentales, agregó. Raiche recientemente comenzó a experimentar con formas en que las agencias estatales podrían usar herramientas de inteligencia artificial generativa, como ChatGPT, para ayudar a los electores a completar documentos complejos en diferentes idiomas. Sin embargo, en una prueba interna preliminar, Raiche descubrió que ChatGPT generaba respuestas de mayor calidad a preguntas de muestra en alemán que en somalí.

"Hay mucho trabajo por hacer para asegurar que se mantenga la equidad", dijo. Pero si se hace bien, los sistemas automatizados "realmente podrían ayudar a las personas a navegar sus interacciones con el gobierno".

Al igual que Connecticut, Vermont también planea expandir su supervisión de IA al sector privado en el futuro. Raiche dijo que el estado probablemente logrará eso a través de una ley de privacidad de datos del consumidor, que puede gobernar los conjuntos de datos subyacentes a los sistemas de inteligencia artificial y, por lo tanto, servir como una especie de puerta trasera para una regulación más amplia. California, Connecticut, Colorado, Utah y Virginia también han aprobado leyes integrales de privacidad de datos, mientras que un puñado de jurisdicciones han adoptado regulaciones más estrictas dirigidas a usos sensibles o de alto riesgo de la inteligencia artificial.

A principios de julio, por ejemplo, los empleadores de la ciudad de Nueva York que utilicen sistemas de IA como parte de su proceso de contratación tendrán que auditar esas herramientas en busca de sesgo y publicar los resultados. Mientras tanto, Colorado requiere que las compañías de seguros documenten su uso de sistemas automatizados y demuestren que no resultan en discriminación injusta.

El mosaico emergente de leyes estatales y locales ha irritado a las empresas de tecnología, que han comenzado a pedir una regulación federal de la IA y los sistemas automatizados. La mayoría de las empresas de tecnología no pueden personalizar sus sistemas para diferentes ciudades y estados, dijo West, de Brookings Institution, lo que significa que, en ausencia de legislación federal, muchas tendrán que adoptar las regulaciones locales más estrictas en toda su huella geográfica.

Esa es una situación que muchas empresas esperan evitar. En abril, representantes de una amplia gama de grupos empresariales y tecnológicos se alinearon para oponerse a un proyecto de ley de inteligencia artificial de California, que habría requerido que las empresas privadas monitorearan las herramientas de inteligencia artificial en busca de sesgo e informaran los resultados, o enfrentarían fuertes multas y demandas de los consumidores. El proyecto de ley sobrevivió a dos votos del comité en abril antes de morir en el Comité de Asignaciones de la Asamblea.

"Los gobiernos deben colaborar con la industria y no atacarla con este enfoque de confrontación", dijo Morabito, de ALEC. "Permita que el mercado lidere aquí... muchos actores del sector privado quieren hacer lo correcto y construir un ecosistema de IA confiable".

ALEC ha propuesto un enfoque alternativo basado en el estado para la regulación de la IA. Denominado "sandbox regulatorio", el programa permite a las empresas probar tecnologías emergentes que de otro modo podrían entrar en conflicto con las leyes estatales en colaboración con las oficinas de los fiscales generales estatales. Tales cajas de arena fomentan la innovación, dijo Morabito, al mismo tiempo que protegen a los consumidores y educan a los legisladores sobre las necesidades de la industria antes de redactar la legislación. Arizona y Utah, así como la ciudad de Detroit, han creado recientemente espacios de pruebas regulatorios donde las empresas pueden realizar experimentos de IA.

Sin embargo, esos programas no han impedido que los legisladores en esos estados también busquen regulaciones de IA. En 2022, un proyecto de ley patrocinado por los republicanos buscaba prohibir que AI infringiera los "derechos constitucionales" de los arizonenses, y la legislatura de Utah convocó recientemente a un grupo de trabajo para considerar una posible legislación de AI.

Los formuladores de políticas ya no consideran a la IA como una preocupación vaga o futura, dijo Eberly de Yale, y no esperan que el gobierno federal actúe.

"La IA está aquí, lo queramos o no", agregó. "Es parte de nuestras vidas ahora... y los legisladores solo están tratando de adelantarse".

RECIBE LOS TITULARES DE LA MAÑANA EN TU INBOX

NOTICIAS DE APOYO DE CONFIANZA.

por Caitlin Dewey, Ohio Capital Journal 6 de junio de 2023

Nuestras historias se pueden volver a publicar en línea o impresas bajo la licencia Creative Commons CC BY-NC-ND 4.0. Le pedimos que edite solo por estilo o para acortar, proporcione la atribución adecuada y enlace a nuestro sitio web. Consulte nuestras pautas de republicación para el uso de fotografías y gráficos.

Caitlin Dewey es corresponsal de Stateline en Buffalo, Nueva York, y ha informado para medios como The Washington Post, The New York Times, The Guardian, Slate, Elle y Cosmopolitan.