La Administración Nacional de Telecomunicaciones e Información (NTIA), una división del Departamento de Comercio de los Estados Unidos, fijado para comentarios públicos sobre estrategias para fomentar la rendición de cuentas en sistemas confiables de inteligencia artificial (IA).

El objetivo era solicitar comentarios de las partes interesadas para hacer sugerencias para un informe futuro sobre los marcos de garantía y responsabilidad de la IA. Estas sugerencias podrían guiar futuras regulaciones federales y no gubernamentales.

La promoción de una IA confiable que defienda los derechos humanos y los principios democráticos fue un objetivo federal principal según la solicitud de la NTIA. Sin embargo, quedan lagunas para garantizar que los sistemas de IA sean responsables y sigan las reglas de confianza de la IA sobre equidad, seguridad, privacidad y transparencia.

Los mecanismos de rendición de cuentas, como auditorías, evaluaciones de impacto y certificaciones, podrían garantizar que los sistemas de IA cumplan con los criterios de confianza. Pero la NTIA señaló que la implementación de una rendición de cuentas efectiva aún presentaba desafíos y complejidades.

La NTIA discutió una serie de consideraciones relacionadas con el equilibrio entre los objetivos confiables de la IA, las barreras para la implementación responsable, las cadenas complejas de suministro y valor de la IA y los desafíos en la estandarización de las mediciones.

Más de 1450 comentarios sobre la responsabilidad de la IA

Se aceptan comentarios hasta el 12 de junio para ayudar a dar forma al futuro informe de la NTIA y guiar los posibles desarrollos de políticas en torno a la responsabilidad de la IA.

El número de comentarios superó los 1.450.

Los comentarios en los que se pueden buscar palabras clave ocasionalmente incluyen enlaces a artículos, cartas, documentos y juicios relacionados con el impacto potencial de la IA.

Las empresas tecnológicas responden a la NTIA

Los comentarios incluyeron comentarios de las siguientes empresas tecnológicas que trabajan para desarrollar productos de inteligencia artificial para el lugar de trabajo.

Carta de OpenAI a la NTIA

En el carta de OpenAI, acogió con beneplácito que la NTIA enmarque el problema como un «ecosistema» de medidas de responsabilidad de IA necesarias para garantizar una IA confiable.

Los investigadores de OpenAI creían que un ecosistema de responsabilidad de IA maduro consistiría en elementos de responsabilidad general que se aplican ampliamente en todos los dominios y elementos verticales adaptados a contextos y aplicaciones específicos.

OpenAI se ha centrado en desarrollar modelos básicos: modelos de IA ampliamente aplicables que aprenden de grandes conjuntos de datos.

Considere la necesidad de adoptar un enfoque centrado en la seguridad para estas plantillas, independientemente de las áreas particulares en las que se puedan usar.

OpenAI detalló algunos enfoques actuales de la responsabilidad de la IA. Publique «tarjetas del sistema» para proporcionar transparencia sobre problemas de rendimiento significativos y riesgos de nuevos modelos.

Ejecute pruebas cualitativas de «equipo rojo» para probar capacidades y modos de falla. Realiza evaluaciones cuantitativas para diversas capacidades y riesgos. Y tiene políticas de uso claras que prohíben los usos nocivos, junto con mecanismos de cumplimiento.

OpenAI ha reconocido varios desafíos importantes sin resolver, incluida la evaluación de capacidades potencialmente peligrosas, a medida que las capacidades del modelo continúan evolucionando.

Discutió preguntas abiertas con respecto a las evaluaciones independientes de terceros de sus modelos. Y sugirió que los requisitos de registro y licencia pueden ser necesarios para futuros diseños de cimientos con riesgos significativos.

Si bien las prácticas actuales de OpenAI se centran en la transparencia, las pruebas y las políticas, la empresa parece estar dispuesta a trabajar con los legisladores para desarrollar medidas de responsabilidad más sólidas. Sugirió que es posible que se necesiten marcos regulatorios adaptados a modelos de IA competentes.

En general, la respuesta de OpenAI reflejó su creencia de que una combinación de esfuerzos de autorregulación y políticas gubernamentales desempeñaría un papel fundamental en el desarrollo de un ecosistema de responsabilidad de IA eficaz.

Carta de Microsoft a la NTIA

En su respuesta, Microsoft dijo que la responsabilidad debería ser un elemento central de los marcos para abordar los riesgos que plantea la IA y maximizar sus beneficios. Las empresas que desarrollan y usan IA deben rendir cuentas por el impacto de sus sistemas, y las instituciones de supervisión necesitan la autoridad, el conocimiento y las herramientas para ejercer una supervisión adecuada.

Microsoft destacó las lecciones de su programa de IA responsable, cuyo objetivo es garantizar que las máquinas permanezcan bajo control humano. La rendición de cuentas está integrada en su estructura de gobierno y en el estándar de IA responsable e incluye:

  • Llevar a cabo evaluaciones de impacto para identificar y abordar los daños potenciales.
  • Supervisión adicional para sistemas de alto riesgo.
  • Documentación para garantizar que los sistemas son aptos para su propósito.
  • Prácticas de gobierno y gestión de datos.
  • Avance de la gestión y el control humano.
  • Microsoft describió cómo implementa un equipo rojo para descubrir posibles daños y fallas, y emite notas de divulgación para sus servicios de IA. El nuevo motor de búsqueda Bing de Microsoft aplica este enfoque de IA responsable.

Microsoft ha hecho seis recomendaciones para promover la responsabilidad:

  • Aproveche el marco de gestión de riesgos de IA de NIST para acelerar el uso de mecanismos de rendición de cuentas como evaluaciones de impacto y equipos rojos, especialmente para sistemas de IA de alto riesgo.
  • Desarrollar un marco legal y regulatorio basado en la pila de tecnología de IA, incluidos los requisitos de licencia para modelos base y proveedores de infraestructura.
  • Promover la transparencia como factor de rendición de cuentas, por ejemplo a través de un registro de sistemas de IA de alto riesgo.
  • Invertir en desarrollar la capacidad de los legisladores y reguladores para seguir el ritmo de los desarrollos de IA.
  • Invierta en investigación para mejorar los criterios de evaluación de la IA, la explicabilidad, la interacción hombre-computadora y la seguridad.
  • Desarrolle y alinee estándares internacionales para respaldar un ecosistema de aseguramiento, incluidos los estándares ISO AI y los estándares de procedencia del contenido.
  • En general, Microsoft parecía estar listo para trabajar con las partes interesadas para desarrollar e implementar enfoques efectivos de responsabilidad de IA.

En general, Microsoft parecía estar listo para trabajar con las partes interesadas para desarrollar e implementar enfoques efectivos de responsabilidad de IA.

Carta de Google a la NTIA

de Google respuesta dio la bienvenida a la solicitud de comentarios de la NTIA sobre las políticas de responsabilidad de AI. Reconoció la necesidad tanto de autorregulación como de gobernanza para lograr una IA confiable.

Google destacó su trabajo en seguridad y ética de IA, como un conjunto de principios de IA centrados en la equidad, la seguridad, la privacidad y la transparencia. Google también ha implementado prácticas de IA responsables internamente, incluida la realización de evaluaciones de riesgo y evaluaciones de equidad.

Google ha respaldado el uso de los marcos regulatorios existentes cuando sea apropiado y las intervenciones basadas en el riesgo para la IA de alto riesgo. Alentó el uso de un enfoque colaborativo y basado en el consenso para desarrollar estándares técnicos.

Google estuvo de acuerdo en que los mecanismos de rendición de cuentas, como auditorías, calificaciones y certificaciones, podrían garantizar sistemas de IA confiables. Pero señaló que estos mecanismos enfrentan desafíos en la implementación, incluida la evaluación de la multitud de aspectos que influyen en los riesgos de un sistema de IA.

Google recomendó centrar los mecanismos de rendición de cuentas en los factores de riesgo clave y sugirió utilizar enfoques que apunten a las formas más probables en que los sistemas de IA podrían impactar significativamente en la sociedad.

Google ha recomendado un esquema de hub-and-spoke regulatorio de IA, con los reguladores de la industria supervisando la implementación de IA con la orientación de una agencia central como NIST. Apoyó la aclaración de las modalidades de aplicación de la leyes existentes para la IA y el fomento de medidas proporcionales de responsabilidad basadas en el riesgo para la IA de alto riesgo.

Al igual que otros, Google creía que se necesitaría una combinación de autorregulación, estándares técnicos y políticas gubernamentales limitadas basadas en el riesgo para promover la responsabilidad de la IA.

Carta antropológica a la NTIA

de la antropología respuesta describió la creencia de que un ecosistema sólido de rendición de cuentas de IA requiere mecanismos adaptados a los modelos de IA. Identificó varios desafíos, incluida la dificultad de evaluar rigurosamente los sistemas de IA y acceder a la información confidencial necesaria para las auditorías sin comprometer la seguridad.

Financiamiento apoyado por Antropic para lo siguiente:

  • Evaluaciones modelo: las evaluaciones actuales son un mosaico incompleto y requieren habilidades especializadas. Recomendó estandarizar las evaluaciones de capacidad que se centren en riesgos como el fraude y la autonomía.
  • Investigación de interpretabilidad: las subvenciones y la financiación para la investigación de interpretabilidad podrían permitir proyectos más transparentes y comprensibles. Sin embargo, las regulaciones que requieren interpretación son actualmente imposibles de lograr.
  • Prerregistro de capacitaciones grandes de IA: los desarrolladores de IA deben informar las capacitaciones grandes de IA a los reguladores para notificarles sobre nuevos riesgos, mientras se adhieren a las protecciones de privacidad adecuadas.
  • Equipos externos rojos: Prueba adversaria obligatoria de los sistemas de IA antes del lanzamiento, ya sea a través de una organización centralizada como NIST o mediante el acceso de investigadores. Sin embargo, el talento del Equipo Rojo reside actualmente en laboratorios privados de IA.
  • Auditores con experiencia técnica, conocimiento de la seguridad y flexibilidad: los auditores necesitan una experiencia profunda en aprendizaje automático, evitando fugas o piratería, pero también necesitan operar dentro de límites que promuevan la competitividad.
  • Medidas de responsabilidad recomendadas por Anthropic basadas en las capacidades de un modelo y los riesgos demostrados, evaluados a través de evaluaciones de capacidad específicas. Sugirió aclarar los marcos de propiedad de la propiedad intelectual para la IA a fin de permitir una concesión de licencias justa y brindar orientación sobre cuestiones antimonopolio para permitir las asociaciones de seguridad.
  • En general, Anthropic destacó los desafíos de evaluar y acceder rigurosamente a la información sobre sistemas avanzados de IA debido a su naturaleza sensible. Argumentó que las evaluaciones de la capacidad de financiación, la investigación de interpretabilidad y el acceso a los recursos informáticos son fundamentales para un ecosistema de responsabilidad de IA eficaz que beneficie a la sociedad.

Qué esperar a continuación

Las respuestas a la solicitud de comentarios de la NTIA muestran que, si bien las empresas de IA reconocen la importancia de la rendición de cuentas, aún existen preguntas abiertas y desafíos sobre la implementación y escalado efectivos de los mecanismos de rendición de cuentas.

También indican que tanto los esfuerzos de autorregulación empresarial como las políticas gubernamentales desempeñarán un papel en el desarrollo de un ecosistema sólido de responsabilidad de la IA.

En el futuro, se espera que el informe de la NTIA haga recomendaciones para avanzar en el ecosistema de responsabilidad de la IA aprovechando y aprovechando los esfuerzos de autorregulación, los estándares técnicos y las políticas gubernamentales existentes. Es probable que los aportes de las partes interesadas a través del proceso de comentarios ayuden a dar forma a estas recomendaciones.

Sin embargo, implementar las recomendaciones en cambios de políticas concretos y prácticas de la industria que puedan transformar la forma en que se desarrolla, implementa y supervisa la IA requerirá la coordinación entre las agencias gubernamentales, las empresas de tecnología, los investigadores y otras partes interesadas.

El camino hacia la rendición de cuentas madura de la IA promete ser largo y difícil. Pero estos primeros pasos muestran que hay impulso hacia ese objetivo.


Imagen destacada: EQRoy/Shutterstock

Fuente: searchenginejournal

Hashtags: #NTIA #recibe #más #comentarios #sobre #responsabilidad