Google ha publicado una agenda de políticas de IA que describe una visión para la implementación responsable de la IA y sugerencias sobre cómo los gobiernos deben regular y fomentar la industria.

Agenda política de IA de Google

Google ha anunciado la publicación de una agenda de políticas de IA con sugerencias para el desarrollo y la regulación responsable de la IA.

El documento señala que las políticas gubernamentales de IA se están formando de forma independiente en todo el mundo y exige una agenda de IA coherente que logre un equilibrio entre la protección contra los resultados dañinos y el impedimento de la innovación.

Google escribe:

“Conseguir que la innovación en IA sea correcta requiere un marco de políticas que garantice la responsabilidad y permita la confianza.

Necesitamos una estrategia holística de IA centrada en:

(1) desbloquear oportunidades a través de la innovación y el crecimiento económico inclusivo;

(2) asegurar la rendición de cuentas y garantizar la confianza; Y

(3) proteger la seguridad global.

Una agenda de IA coherente debe promover los tres objetivos, no uno a expensas del otro».

La agenda de políticas de IA de Google tiene tres objetivos principales:

  1. Oportunidad
  2. Responsabilidad
  3. Seguridad

Oportunidad

Esta parte de la agenda insta a los gobiernos a fomentar el desarrollo de la IA invirtiendo en:

  • Investigación y desarrollo
  • Crear un entorno legal sin fricciones que desbloquee el desarrollo de la IA
  • Planificación del apoyo educativo para crear una fuerza laboral preparada para la IA

En resumen, la agenda exige que los gobiernos se quiten del camino y se alejen de la IA para ayudar al avance de la tecnología.

La agenda política señala:

«Históricamente, los países se han destacado cuando maximizan el acceso a la tecnología y la utilizan para lograr importantes objetivos públicos, en lugar de tratar de limitar el progreso tecnológico».

Responsabilidad

La agenda política de Google argumenta que la implementación responsable de la IA dependerá de una combinación de leyes gubernamentales, autorregulación corporativa y aportes de organizaciones no gubernamentales.

La agenda política recomienda:

“Algunos desafíos se pueden abordar a través de la regulación, asegurando que las tecnologías de IA se desarrollen e implementen de acuerdo con las prácticas responsables de la industria y los estándares internacionales.

Otros requerirán investigación fundamental para comprender mejor los beneficios y riesgos de la IA y cómo gestionarlos, y para desarrollar e implementar nuevas innovaciones técnicas en áreas como la interpretabilidad y la marca de agua.

Y otros pueden requerir nuevas organizaciones e instituciones”.

También se recomienda en la agenda:

“Fomentar la adopción de enfoques comunes para la regulación y la gobernanza de la IA, así como un léxico común, basado en el trabajo de la OCDE. «

¿Qué es la OCDE?

La OCDE es Observatorio de Políticas de la OCDE.AIque es apoyado por socios corporativos y gubernamentales.

Las partes interesadas del gobierno de la OCDE incluyen el Departamento de Estado de EE. UU. y el Departamento de Comercio de EE. UU.

Las partes interesadas corporativas consisten en organizaciones como la Fundación Patrick J McGovern, cuyo equipo de liderazgo está lleno de inversionistas de Silicon Valley y ejecutivos de tecnología que tienen un interés personal en cómo se regula la tecnología.

Google aboga por menos regulación corporativa

El resultado de la política regulatoria de Google es que menos regulación es más y que la transparencia corporativa podría sofocar la innovación.

Recomendar:

“Enfocar la regulación en aplicaciones de mayor riesgo también puede desalentar la innovación en aplicaciones de mayor valor donde la IA puede brindar los beneficios más significativos.

La transparencia, que puede respaldar la rendición de cuentas y la equidad, puede tener un costo en términos de precisión, seguridad y privacidad.

Las democracias necesitan considerar cuidadosamente cómo encontrar los equilibrios correctos”.

Luego, a continuación, recomienda mirar la eficiencia y la productividad:

“Exigir a las agencias reguladoras que consideren las compensaciones entre varios objetivos de política, incluida una mayor eficiencia y productividad, transparencia, equidad, privacidad, seguridad y resiliencia. «

Siempre ha habido, y siempre habrá, un tira y afloja entre las entidades corporativas que luchan contra la vigilancia y los reguladores gubernamentales que intentan proteger al público.

La IA puede resolver los problemas más difíciles de las humanidades y brindar beneficios sin precedentes. Google tiene razón cuando se debe lograr un equilibrio entre los intereses públicos y corporativos.

Recomendaciones sensibles

El documento contiene recomendaciones sensatas, como sugerir que las agencias reguladoras existentes desarrollen pautas específicas para la IA y consideren la adopción de nuevos estándares ISO en desarrollo (como ISO 42001).

La agenda política recomienda:

“a) Orientar a los reguladores sectoriales para que actualicen los regímenes existentes de supervisión y aplicación para aplicarlos a los sistemas de IA, incluido cómo las autoridades existentes aplican el uso de IA y cómo demostrar el cumplimiento de un sistema de IA AI con las regulaciones existentes utilizando estándares multilaterales de consenso internacional, como la serie ISO 42001.

b) Encargar a las agencias reguladoras que emitan informes periódicos que identifiquen las brechas de capacidad que dificultan tanto que las entidades afectadas cumplan con las regulaciones como que los reguladores realicen una supervisión efectiva.

En cierto modo, estas recomendaciones establecen que es lógico que las agencias desarrollen pautas para que los reguladores sepan cómo regular.

Oculta en esta declaración está la recomendación ISO 42001 como modelo de cómo deberían ser los estándares de IA.

Cabe señalar que la norma ISO 42001 es desarrollada por Comité ISO/IEC sobre Inteligencia ArtificialCual esta presidido de un ejecutivo tecnológico de Silicon Valley de veinte años y otros en la industria tecnológica.

IA y seguridad

Esta es la parte que representa un peligro real de uso malicioso para crear desinformación y desinformación, así como daños cibernéticos.

Google describe los desafíos:

“Nuestro desafío es maximizar los beneficios potenciales de la IA para la seguridad y estabilidad global, al mismo tiempo que evitamos que los actores de amenazas exploten esta tecnología con fines maliciosos”.

Y luego ofrece una solución:

“Los gobiernos deben invertir simultáneamente en investigación y desarrollo y acelerar la adopción de IA pública y privada, mientras controlan la proliferación de herramientas que podrían ser mal utilizadas por malos actores”.

Entre las recomendaciones a los gobiernos para combatir las amenazas basadas en IA:

  • Desarrollar formas de identificar y prevenir la interferencia electoral
  • Compartir información sobre vulnerabilidades de seguridad
  • Desarrollar un marco de gobernanza del comercio internacional para tratar con entidades que se dedican a la investigación y el desarrollo de IA que amenazan la seguridad mundial.

Reduzca la burocracia y aumente la adopción de IA por parte del gobierno

El documento también aboga por simplificar la adopción de IA por parte del gobierno, incluida una mayor inversión en ella.

“Reformar las políticas de contratación pública para aprovechar y fomentar la IA líder en el mundo…

Examine las barreras institucionales y burocráticas que impiden que los gobiernos eliminen los silos de datos y adopten una mejor gobernanza de datos para aprovechar todo el poder de la IA.

Aproveche los conocimientos de datos mediante la creación de equipos humano-máquina, cree equipos ágiles con las habilidades para construir/adaptar/aprovechar rápidamente sistemas de IA que ya no requieren títulos en informática…”

La agenda política de IA de Google

La agenda política ofrece sugerencias valiosas para que los gobiernos de todo el mundo las consideren al formular regulaciones sobre el uso de la IA.

La inteligencia artificial es capaz de muchos descubrimientos positivos en la ciencia y en medicina, descubrimientos que pueden aportar soluciones al cambio climático, curar enfermedades y prolongar la vida humana.

De alguna manera, es una pena que los primeros productos de IA lanzados al mundo sean aplicaciones ChatGPT y Dall-E relativamente mundanas que hacen poco por beneficiar a la humanidad.

Los gobiernos están tratando de comprender la inteligencia artificial y cómo regularla a medida que estas tecnologías se adoptan en todo el mundo.

Curiosamente, la IA de código abierto, su versión más destacada, solo se menciona una vez.

El único contexto en el que se aborda el código abierto es en las recomendaciones para abordar el mal uso de la IA:

“Aclaración de la posible responsabilidad por el uso indebido/abuso de sistemas de IA genéricos y especializados (incluidos los sistemas de código abierto, cuando corresponda) por parte de varios participantes: investigadores y autores, creadores, implementadores y usuarios finales”.

Teniendo en cuenta que se dice que Google está asustado y piensa que ya ha sido derrotado por la IA de código abierto, es curioso cómo la IA de código abierto solo se menciona en el contexto del mal uso de la tecnología.

La agenda política de IA de Google refleja preocupaciones legítimas sobre el exceso de regulación y las reglas inconsistentes impuestas en todo el mundo.

Pero las organizaciones que la agenda política cita como que ayudan a desarrollar estándares y regulaciones de la industria están repletas de miembros de Silicon Valley. Esto plantea interrogantes sobre los intereses que reflejan las normas y reglamentos.

La agenda política comunica con éxito la necesidad y la urgencia de desarrollar una regulación significativa y equitativa para evitar resultados perjudiciales y, al mismo tiempo, permitir que avance la innovación beneficiosa.

Lea el artículo de Google sobre la agenda política:

Una agenda política para el avance responsable de la IA: oportunidad, responsabilidad, seguridad

Lea la propia Agenda de políticas de IA (PDF)

Una agenda política para el progreso responsable en inteligencia artificial

Imagen destacada de Shutterstock/Shaheerrr

Fuente: searchenginejournal

Hashtags: #agenda #política #Google #revela #lista #deseos #regulatorios