El pionero de la IA, Geoffrey Hinton, conocido por su trabajo pionero en el aprendizaje profundo y la investigación de redes neuronales, expresó recientemente su preocupación por los rápidos avances en la IA y las posibles implicaciones.
A la luz de sus observaciones sobre grandes modelos de lenguaje nuevos como GPT-4, Hinton advierte sobre algunos problemas clave:
- Máquinas que superan la inteligencia humana: Hinton cree que los sistemas de IA como GPT-4 están en camino de ser mucho más inteligentes de lo que se había previsto originalmente, y podrían poseer mejores algoritmos de aprendizaje que los humanos.
- Riesgos de que los chatbots de IA sean explotados por «malos actores»: Hinton señala los peligros de usar chatbots inteligentes para difundir desinformación, manipular al electorado y crear poderosos spambots.
- Capacidad para aprender algunos golpes.: Los modelos de IA pueden aprender nuevas tareas con solo unos pocos ejemplos, lo que permite que las máquinas adquieran nuevas habilidades a un ritmo comparable o incluso más rápido que los humanos.
- Riesgo existencial que representan los sistemas de inteligencia artificial: Hinton advierte contra escenarios en los que los sistemas de IA crean sus propios objetivos secundarios y luchan por más poder, superando la acumulación de conocimiento humano y las capacidades de intercambio.
- Impacto en los mercados laborales: La IA y la automatización pueden desplazar puestos de trabajo en algunas industrias, siendo la fabricación, la agricultura y la atención médica las más afectadas.
En este artículo, profundizamos en las preocupaciones de Hinton, su salida de Google para centrarse en los aspectos éticos y de seguridad del desarrollo de IA, y la importancia del desarrollo de IA responsable para dar forma al futuro de las relaciones entre humanos e IA.
La salida de Hinton de Google y el desarrollo ético de la inteligencia artificial
En su búsqueda para abordar las preocupaciones éticas y de seguridad que rodean a la IA, Hinton ha decidido dejar su puesto en Google.
Esto le permite la libertad de expresar sus preocupaciones abiertamente y de dedicarse a un trabajo más filosófico sin las limitaciones de los intereses corporativos.
Hinton afirma en un entrevista con la revisión de tecnología del MIT:
“Quiero hablar sobre los problemas de seguridad de la IA sin tener que preocuparme por cómo interactúa con el negocio de Google. Mientras me pague Google, no puedo hacer eso».
La partida de Hinton marca un cambio en su enfoque hacia los aspectos éticos y de seguridad de la IA. Tiene como objetivo participar activamente en los diálogos en curso sobre el desarrollo responsable y la implementación de la IA.
Usando su experiencia y reputación, Hinton tiene la intención de ayudar a desarrollar marcos y pautas que aborden temas como el sesgo, la transparencia, la responsabilidad, la confidencialidad y el cumplimiento ético.
GPT-4 y malos actores
Durante entrevista reciente, Hinton expresó su preocupación por la posibilidad de que las máquinas superen la inteligencia humana. Las extraordinarias habilidades de GPT-4desarrollado por OpenAI y lanzado a principios de este año, hizo que Hinton reevaluara sus creencias anteriores.
Él cree que los modelos de lenguaje como GPT-4 están en camino de ser mucho más inteligentes de lo que se anticipó originalmente, y que podrían poseer mejores algoritmos de aprendizaje que los humanos.
Hinton afirma en la entrevista:
«Nuestro cerebro tiene 100 billones de conexiones. Los grandes modelos de lenguaje tienen hasta medio billón, como máximo un billón. Sin embargo, GPT-4 sabe cientos de veces más que cualquier persona. Así que quizás en realidad tenga un algoritmo de aprendizaje mucho mejor que el nuestro». «.
Las preocupaciones de Hinton giran principalmente en torno a las diferencias significativas entre las máquinas y los humanos. Él compara la introducción de grandes modelos de lenguaje con una invasión extraterrestre, enfatizando las habilidades y conocimientos lingüísticos superiores de cada individuo.
Hinton afirma en la entrevista:
«Estas cosas son totalmente diferentes para nosotros. A veces pienso que es como si los extraterrestres hubieran aterrizado y la gente no se da cuenta porque hablan inglés muy bien».
Hinton advierte sobre los riesgos de que los chatbots de IA se vuelvan más inteligentes que los humanos y sean explotados por «malos actores».
En la entrevista advierte que estos chatbots podrían usarse para difundir desinformación, manipular al electorado y crear poderosos spambots.
“Mira, aquí hay una forma en que todo podría salir mal. Sabemos que muchos de los que quieren usar estas herramientas son malos actores como Putin o DeSantis. Quieren usarlos para ganar guerras o para manipular al electorado».
Aprendizaje de bajo impacto y supremacía de la IA
Otro aspecto de la preocupación de Hinton es la capacidad de los grandes modelos de lenguaje para trabajar aprende con unos pocos trazos.
Estos modelos pueden ser entrenados para realizar nuevas tareas con algunos ejemplos, incluso tareas para las que no han sido entrenados directamente.
Esta notable capacidad de aprendizaje hace que la velocidad a la que las máquinas adquieren nuevas habilidades sea comparable o incluso más rápida que la de los humanos.
Hinton afirma en la entrevista:
«Gente[‘s brains] parecía tener algún tipo de magia. Bueno, el fondo de esta discusión se cae tan pronto como tomas uno de estos excelentes modelos de lenguaje y lo entrenas para hacer algo nuevo. Puede aprender nuevas tareas extremadamente rápido.
Las preocupaciones de Hinton van más allá del impacto inmediato en los mercados laborales y las industrias.
Él tomó «riesgo existencial» sobre lo que sucede cuando los sistemas de IA se vuelven más inteligentes que los humanos, advirtiendo sobre escenarios en los que los sistemas de IA crean sus propios objetivos secundarios y luchan por ganar más poder.
Hinton da un ejemplo de cómo los sistemas de IA que desarrollan objetivos secundarios pueden fallar:
“Bueno, aquí hay un objetivo secundario que casi siempre ayuda en biología: obtener más energía. Entonces, lo primero que podría suceder es que estos robots digan: “Consigamos más potencia. Redirigimos toda la electricidad a mis chips. Otro objetivo secundario sería crear múltiples copias de ti mismo. ¿Suena bien?»
El impacto de la IA en los mercados laborales y la gestión de riesgos
Hinton señala esto El efecto de la inteligencia artificial en el lugar de trabajo es un significativo preocuparse.
La IA y la automatización podrían asumir tareas repetitivas y mundanas, causando pérdidas de empleos en algunos sectores.
producción y los trabajadores de las fábricas podrían verse muy afectados por la automatización.
Los robots y las máquinas impulsadas por IA están en aumento en el sector manufacturero, lo que podría hacerse cargo de trabajos riesgosos y repetitivos.
La automatización también avanza agriculturacon tareas automatizadas como siembra, cosecha y seguimiento de cultivos.
En el Saludalgunas tareas administrativas se pueden automatizar, pero es menos probable que los roles que requieren interacción humana y compasión sean reemplazados por completo por IA.
En breve
Las preocupaciones de Hinton sobre los rápidos avances en inteligencia artificial y sus posibles implicaciones subrayan la necesidad de desarrollar una IA responsable.
Su salida de Google indica su compromiso de abordar las preocupaciones de seguridad, promover el diálogo abierto y dar forma al futuro de la IA de una manera que proteja el bienestar de la humanidad.
Si bien ya no está en Google, las contribuciones y la experiencia de Hinton continúan desempeñando un papel integral en la configuración del campo de la IA y en la orientación de su desarrollo ético.
Imagen destacada generada por el autor usando Midjourney
Fuente: searchenginejournal
Hashtags: #Las #principales #preocupaciones #éticas #planteadas #por #pionero #Geoffrey #Hinton
Comentarios recientes