
Illinois, al igual que muchos otros estados, está analizando detenidamente los riesgos y posibilidades de la inteligencia artificial generativa.
El Senado de Illinois aprobó el Proyecto de Ley 3563 de la Cámara de Representantes en agosto pasado, creando el Grupo de Trabajo de Procesamiento del Lenguaje Natural y IA Generativa del estado. Se centra en desarrollar mejores prácticas de IA que garanticen la seguridad pública, la privacidad y la equidad. Varios meses después de la creación del grupo de trabajo, Sanjay Gupta, secretario del Departamento de Innovación y Tecnología de Illinois y líder del grupo de trabajo, compartió con StateScoop sus pensamientos sobre el software de código abierto versus el de código cerrado, los creadores y consumidores de IA generativa y la mejor manera de equilibrar los beneficios de la tecnología con las protecciones para los residentes.
La IA generativa, afirmó, se encuentra en un momento crítico.
“Creo que la IA generativa se encuentra en un punto de inflexión que seguramente tendrá un profundo impacto en la industria, la tecnología empresarial y el sector público”, dijo Gupta, quien pasó más de cuatro años como director de tecnología de la Administración de Pequeñas Empresas de EE. UU. donde sus esfuerzos por modernizar la agencia le permitieron procesar más de $1 billón en préstamos para el esfuerzo de recuperación económica más grande del país. (También es ex miembro de la junta directiva del Fondo Federal de Modernización Tecnológica, donde ayudó a las agencias gubernamentales a adoptar nuevas tecnologías).
Seguro, protegido y confiable
Gupta dijo que la IA implementada cuidadosamente puede revolucionar las industrias, agilizar los procesos e impulsar el crecimiento económico. Dijo que prefiere que el estado adopte software de código abierto, que hace que su código fuente esté abierto al público, porque ofrece una mayor transparencia entre creadores y consumidores sobre cómo funciona y en qué conjuntos de datos se entrena.
“Desde nuestro punto de vista, todo se reduce al consumidor”, dijo Gupta, refiriéndose a los residentes de Illinois. “Tiene que ser seguro, tiene que ser seguro, tiene que ser digno de confianza: esas son las tres cosas más importantes que buscamos en la IA generativa, u otras formas de IA en el estado, para asegurarnos de que sabemos lo que estamos haciendo”. re usando. Algunos de los sets cerrados no tienen tanta transparencia o visibilidad sobre esas cosas.
El mes pasado, la administración Biden emitió una extensa orden ejecutiva que indica a las agencias federales cómo deben utilizar la inteligencia artificial. Establece plazos para nuevos estudios e insta a los legisladores a desarrollar nuevas regulaciones que prioricen la seguridad y la protección.
Gupta dijo que también está priorizando la seguridad y que Illinois comenzará con casos de uso que tengan riesgos bajos, pero recompensas altas, como crear una experiencia “más rica” para los usuarios al mejorar los chatbots y aumentar la productividad al facilitar que el personal procese documentos. y “sintetizar” información de diversas fuentes.
“La mayoría de las organizaciones del sector público tienen un retraso en el procesamiento. Aquí también tenemos la misma situación en el estado”, dijo Gupta. “Y esto mejora nuestra capacidad para procesar más de estas aplicaciones de manera más oportuna, lo que nos brinda algo de ancho de banda adicional”.
Cuando el estado esté listo para buscar algunos casos de uso más avanzados, dijo, eventualmente podría considerar el uso de IA generativa para procesar solicitudes de beneficios y tomar determinaciones sobre la elegibilidad, aunque señaló la importancia de nunca automatizar completamente tales decisiones.
Automatización cuidadosa
Gupta forma parte del grupo de trabajo de IA del estado con otros 20 miembros, expertos del sector académico y privado que, según dijo, pueden hablar de las complejidades de la IA generativa. Dijo que el grupo de trabajo también está explorando oportunidades para que el estado aplique sus grandes modelos lingüísticos en los ámbitos de las aulas de las escuelas públicas, la fuerza laboral y la ciberseguridad.
Gupta dijo que aunque la IA puede automatizar tareas repetitivas (mejorando la precisión y la eficiencia de una amplia gama de tareas), es importante nunca permitir que el software tome unilateralmente decisiones que afecten a los humanos.
“Sí, podemos automatizar las cosas”, dijo. “Pero el nivel de automatización que tendremos que hacer es de forma metódica; comenzaremos con algunas de las cosas más mundanas y básicas para automatizar. Habrá una recomendación que se presentará, por así decirlo, a un ser humano o seres humanos, quienes en última instancia tomarán la decisión sobre qué hacer con la recomendación proporcionada por un sistema basado en IA”.
Gupta reconoció los riesgos potenciales asociados con el uso incontrolado de la IA generativa, incluidos los prejuicios, el desplazamiento laboral y las preocupaciones sobre la privacidad. También señaló sus limitaciones.
“Siempre habrá algún error. Incluso los mejores LLM siempre tendrán algunos huecos o lagunas. No van a ser 100% perfectos”, afirmó. “Así que tenemos que ser conscientes de que habrá cierto nivel de errores [or] lagunas en el conocimiento que habrá. Con el tiempo, a medida que aprendes, los sistemas aprenden. [and] “Serán mejores”.
El grupo de trabajo de Illinois debe celebrar al menos cinco reuniones públicas (en Chicago, Springfield, Metro East, Quad Cities y el sur de Illinois) y resumir sus recomendaciones en un informe compartido con la oficina del gobernador y la asamblea general a finales del próximo año.
Colin Wood contribuyó con el reportaje.