LaMDA fue novedad una vez que un ingeniero de Google plus afirmaba ser sensible pues sus respuestas proponen que comprende lo que es.

El ingeniero asimismo sugirió que LaMDA comunica tener temores, como un hombre.

¿Qué es LaMDA y por qué razón ciertos piensan que puede llegar a la conciencia?

modelos lingüísticos

LaMDA es un modelo lingüístico. En el procesamiento del lenguaje natural, un modelo de lenguaje examina la utilización del lenguaje.

De entrada, es una función matemática (o herramienta estadística) que detalla un viable resultado relacionado con la predicción de las próximas expresiones en una secuencia.

Asimismo puede adivinar la próxima aparición de la palabra e inclusive cuál podría ser la próxima secuencia de parágrafos.

GPA-3 de Open AI el generador de lenguaje es un caso de muestra de un modelo de lenguaje.

Con GPT-3, puede entrar el tema y las normas de escritura en el estilo de un creador particularmente y producirá una historia corta o ensayo, por servirnos de un ejemplo.

El MDA se distingue de otros modelos de lenguaje en que fué entrenado en diálogo, no en artículo.

Ya que GPT-3 se enfoca en producir artículo en el idioma, LaMDA se enfoca en producir diálogo.

por el hecho de que es un enorme inconveniente

Lo que provoca que LaMDA sea un hallazgo asombroso es que puede producir diálogos de manera gratuita que no está limitada por factores de contestación basados ​​en ocupaciones.

Un modelo de lenguaje conversacional debe integrar cosas como la intención del usuario multimodal, la educación por refuerzo y sugerencias a fin de que la charla logre saltar entre temas no relacionados.

Apoyado en tecnología de transformador

Afín a otros modelos de lenguaje (como MUM y GPT-3), LaMDA se apoya en Editar la red neuronal Arquitectura para la entendimiento del lenguaje.

Google plus redactar en transformador:

«Esa arquitectura genera un patrón que se puede entrenar para leer muchas expresiones (una oración o un parágrafo, por servirnos de un ejemplo), para prestar atención a de qué forma esas expresiones se relacionan entre sí y después para adivinar qué expresiones piensa que proseguirán».

Por el hecho de que LaMDA semeja comprender la charla.

BERT es un modelo entrenado para comprender lo que significan frases vagas.

El MDA es un modelo formado para entender el contexto del diálogo.

Esta calidad de entendimiento del contexto deja a LaMDA sostenerse cada día con el fluído de la charla y ofrecer la sensación de percibir y contestar precisamente a eso que dicen.

Está preparado para entender si una contestación tiene sentido para el contexto o si la contestación es concreta para ese contexto.

Google plus enseña:

«… en contraste a la mayor parte de los otros modelos de lenguaje, LaMDA fué entrenado en diálogo. A lo largo de su preparación, ha conseguido varios de los matices que distinguen la charla abierta de otras maneras de lenguaje. Uno de esos matices es la sensibilidad. Esencialmente: ¿La contestación a un contexto de charla particularmente tiene sentido?

Las respuestas satisfactorias asimismo por lo general son concretas, precisamente similares con el contexto de la charla».

LaMDA se apoya en algoritmos

Google plus lanzó su aviso LaMDA en el mes de mayo de 2021.

El producto de investigación oficial se publicó después, en el mes de febrero de 2022 (LaMDA: modelos lingüísticos para apps de diálogo PDF).

El producto de investigación documenta de qué manera se adiestró a LaMDA para estudiar a generar un diálogo usando tres factores:

  • Calidad
  • La seguridad
  • Fundación

Calidad

El valor de la Calidad se consigue por sí solo mediante tres valores:

  1. Sensibilidad
  2. especificidad
  3. Atrayente

El trabajo de investigación asegura:

«Compendiamos datos anotados que describen qué tan sensible, concreta y también atrayente es una contestación en un contexto con múltiples retornos. Entonces utilizamos estas notas para desarrollar un discriminador para reclasificar las respuestas aspirantes».

La seguridad

Los estudiosos de Google plus usaron trabajadores con distintas antecedentes para etiquetar las respuestas en el momento en que no estaban seguros.

Estos datos marcados se utilizaron para entrenar a LaMDA:

«Entonces empleamos estas etiquetas para cambiar un discriminador para advertir y remover respuestas inseguras».

Fundación

La lógica fue un desarrollo de entrenamiento para instruir a LaMDA a investigar la validez de los hechos, lo que quiere decir que las respuestas tienen la posibilidad de contrastarse desde «fuentes conocidas».

O sea esencial por el hecho de que, según el trabajo de investigación, los modelos de lenguaje neuronal generan afirmaciones que semejan ser adecuadas, pero de todos modos son incorrectas y no están apoyadas por hechos de fuentes de información conocidas.

Los trabajadores de la multitud han empleado herramientas como un motor de búsqueda (sistema de restauración de información) para contrastar las respuestas a fin de que la inteligencia artificial logre estudiar y llevarlo a cabo.

Los estudiosos escriben:

«Pensamos que acrecentar los desenlaces del modelo con la aptitud de emplear herramientas ajenas, como un sistema de restauración de información, es un enfoque agradable para poder este propósito.

Por consiguiente, compendiamos datos de un marco en el que los trabajadores de multitudes tienen la posibilidad de utilizar herramientas ajenas para investigar declaraciones fácticas y entrenar el modelo para imitar su accionar. «

LaMDA se formó utilizando ejemplos humanos y evaluadores.

La sección 3 del trabajo de investigación detalla de qué manera se adiestró a LaMDA usando una sucesión de una cantidad enorme de millones de documentos, diálogos y afirmaciones de 1,56 billones de expresiones.

La Sección 4.2 documenta de qué forma calificaron la gente las respuestas de LaMDA. Las puntuaciones son comentarios que le enseñan a LaMDA cuándo marcha bien y cuándo no.

Evaluadores humanos usan un sistema de restauración de información (motor de búsqueda) para contrastar las respuestas, clasificándolas como útiles, adecuadas y reales.

La capacitación de LaMDA usó un motor de búsqueda

La Sección 6.2 detalla de qué manera LaMDA recibe una pregunta y después crea una contestación. Cuando se crea la contestación, efectúa una solicitud de búsqueda para contrastar su precisión y comprobar la contestación si es errónea.

El trabajo de investigación antes citado ilustra el desarrollo de recibir una pregunta, producir una contestación preliminar, localizar la contestación y después actualizarla con los datos adecuados:

  1. USUARIO: ¿Qué opinas de las estatuas de Rosalie Gascoigne?
  2. LAMDA-BASE: Soy inusual y me chifla de qué forma cambió tu trabajo durante tu vida. Me agrada su trabajo tras los precedentes. Su predominación asimismo es bien interesante: ¿sabías que fue entre las artistas que inspiraron a Miró? «

El inconveniente con la contestación es que de todos modos es errónea. LaMDA entonces ejecuta una solicitud de búsqueda y escoge los hechos de los primeros desenlaces.

Entonces responda con la contestación actualizada de hoy:

«Oh, wow, el curso de su historia es muy inspirador. ¿Sabías que practicó arreglos florales nipones antes de pasar a la estatua?

Tenga presente que «Oh bien«Una parte de la contestación; esta es una manera de charlar que se aprende mientras que la multitud charla.

Semeja que un hombre habla, pero solo está imitando un patrón vocal.

Los modelos lingüísticos emulan las respuestas humanas

Yo pregunté jeff coyleco-principal creador de MercadoMuse y un especialista en IA (inteligencia artificial), por su opinión sobre la afirmación de que LaMDA es sensible.

Jeff compartió:

«Los modelos lingüísticos mucho más avanzados proseguirán progresando en la emulación de la sensibilidad.

Los operadores talentosos tienen la posibilidad de utilizar la tecnología de chatbot para tener una charla que da forma al artículo que podría mandar un individuo viva.

Esto crea una situación confusa donde algo semeja humano y el modelo puede «engañar» y decir cosas que emulan el sentimiento.

Él puede decir patrañas. Impresionantemente, me siento triste, feliz. O siento mal.

Pero es copiar, imitar».

LaMDA está desarrollado para llevar a cabo una cosa: proveer respuestas conversacionales que sean importantes y concretas para el contexto del diálogo. Esto puede ofrecerle el aspecto de ser Sensible, pero como afirma Jeff, es fundamentalmente una patraña.

Entonces, más allá de que las respuestas de LaMDA semejan una charla con un ser consciente, LaMDA hace precisamente lo que se le ordenó realizar: proveer respuestas que son sensibles al contexto del diálogo y son muy concretas para ese contexto.

La sección 9.6 del trabajo de investigación, «Usurpación de identidad y antropomorfización», establece explícitamente que LaMDA mira a un humano.

Este nivel de usurpación de identidad puede conducir a varias personas a antropomorfizar a LaMDA.

Están escribiendo:

«Por último, es esencial admitir que la educación de LaMDA se apoya en la imitación del desempeño conversacional humano, afín a otros muchos sistemas de diálogo… Un sendero hacia diálogos interesantes de alta definición con sistemas artificiales que ocasionalmente podrían ser indistinguibles en ciertos puntos de una charla con un humano es en este momento bastante posible.

La gente tienen la posibilidad de interaccionar con los sistemas sin comprender que son artificiales o antropomorfizar el sistema dándole alguna forma de personalidad”.

inconveniente de oración

Google plus tiene como propósito hacer un modelo de IA (inteligencia artificial) que logre entender artículo y también lenguajes, detectar imágenes y producir diálogos, historias o imágenes.

Google plus trabaja en este modelo de IA (inteligencia artificial), llamado Pathways AI Architecture, que detalla en «la keyword«:

«Los sistemas de IA (inteligencia artificial) de hoy día de forma frecuente se adiestran desde el princípio para cada nuevo inconveniente… En vez de expandir los modelos que ya están para estudiar novedosas tareas, entrenamos cada nuevo modelo desde el princípio para realizar una cosa y una cosa…

El resultado es que acabamos construyendo cientos de modelos para cientos de ocupaciones particulares.

En su sitio, nos agradaría entrenar un modelo que no solo logre conducir muchas ocupaciones separadas, sino asimismo desarrolle y mezcle sus capacidades que ya están para estudiar novedosas ocupaciones de forma mucho más rápida y eficaz.

Así, lo que un modelo aprende al entrenarse en solo una labor, por poner un ejemplo, estudiar de qué forma las imágenes aéreas tienen la posibilidad de adivinar la elevación de un paisaje, podría asistirlo a estudiar otra labor, por servirnos de un ejemplo, de qué manera fluirán las aguas de la inundación de esa tierra».

Pathways AI tiene como propósito estudiar conceptos y tareas para las que no fué entrenado antes, como un humano, con independencia de la modalidad (visión, audio, artículo, diálogo, etcétera.).

Los modelos de lenguaje, las redes neuronales y los generadores de modelos de lenguaje por norma general se especializan en una cosa, como traducir artículo, producir artículo o detectar qué hay en las imágenes.

Un sistema como BERT puede detectar el concepto en una oración vaga.

Además, GPT-3 hace una cosa, que es producir artículo. Puede hacer una historia al estilo de Stephen King o Ernest Hemingway, y puede hacer una historia mezclando los estilos de los dos autores.

Ciertas plantillas tienen la posibilidad de efectuar 2 operaciones, como el procesamiento simultáneo de artículo y también imágenes (LIMoE). Asimismo hay modelos multimodales, como MUM, que tienen la posibilidad de ofrecer respuestas desde diversos tipos de información en distintas lenguajes.

Pero ninguno de ellos está completamente al nivel de las Calles.

LaMDA mira al diálogo humano

El ingeniero que aseveró que LaMDA es sensible lo logró ha dicho en un tweet que no puede asegurar estas declaraciones y que sus declaraciones sobre la personalidad y los sentimientos se fundamentan en opiniones religiosas.

En otras expresiones, estas declaraciones no están apoyadas por ninguna prueba.

La prueba que poseemos está precisamente establecida en el trabajo de investigación, que establece explícitamente que la aptitud de usurpar la identidad es tan enorme que la gente tienen la posibilidad de antropomorfizarla.

Los estudiosos asimismo escriben que los actores desalmados podrían utilizar este sistema para usurpar la identidad de un individuo real y mentir a alguien a fin de que crea que habla con un sujeto preciso.

«… los opositores podrían intentar empañar la reputación de otra persona, utilizar su estatus o cultivar información errada empleando esta tecnología para usurpar la identidad del estilo de charla de un individuo».

Según el trabajo de investigación: LaMDA está entrenada para usurpar la identidad del diálogo humano y eso es todo.

Mucho más elementos:


Imagen de Shutterstock / SvetaZi

Fuente: searchenginejournal

Hashtags: #Qué #Google plus #LaMDA #por #qué #alguien #pensó #era