El director ejecutivo de OpenAI, Sam Altman, respondió a una solicitud de la Comisión Federal de Comercio como parte de una investigación sobre si la empresa «participó en prácticas desleales o engañosas» relacionadas con la privacidad, la seguridad de los datos y los riesgos de daños a los consumidores, especialmente en relación con la reputación.
es muy decepcionante ver que el reclamo de la FTC comienza con una filtración y no ayuda a generar confianza.
Dicho esto, es muy importante para nosotros que nuestra tecnología sea segura y pro-consumidor, y que estemos seguros de que estamos cumpliendo con la ley. por supuesto que trabajaremos con la FTC.
— Sam Altman (@sama) 13 de julio de 2023
La FTC solicitó información de OpenAI que se remonta a junio de 2020, según un documento filtrado obtenido por El Correo de Washington.

Objeto de la investigación: OpenAI hackeado Sección 5 por la ley de la FTC?
La documentación que OpenAI debe proporcionar debe incluir detalles sobre capacitación, refinamiento, mejora de la retroalimentación humana, confiabilidad de la respuesta y políticas y prácticas de privacidad, seguridad y mitigación de riesgos (LLM) del consumidor.
somos transparentes sobre los límites de nuestra tecnología, especialmente cuando no los perdemos. y nuestra estructura de ganancias limitada significa que no tenemos incentivos para obtener ganancias ilimitadas.
— Sam Altman (@sama) 13 de julio de 2023
La creciente preocupación de la FTC sobre la IA generativa
Una investigación sobre las prácticas de una gran empresa de inteligencia artificial no sorprende. El interés de la FTC en los riesgos de la IA generativa ha crecido desde que despegó ChatGPT.
Cuidado con la tecnología de toma de decisiones automatizada
En el abril 2021La FTC ha publicado una guía sobre inteligencia artificial (IA) y algoritmos, advirtiendo a las empresas que se aseguren de que sus sistemas de IA cumplan con las leyes de protección al consumidor.
Señaló la Sección 5 de la Ley FTC, la Ley de informes crediticios justos y la Ley de igualdad de oportunidades crediticias como leyes importantes para los desarrolladores y usuarios de IA.
La FTC ha advertido que los algoritmos basados en datos sesgados o una lógica defectuosa podrían generar resultados discriminatorios, incluso si no fueron intencionados.
La FTC ha destacado las mejores prácticas para el desarrollo ético de la IA en base a su experiencia en hacer cumplir las leyes contra las prácticas desleales, el engaño y la discriminación.
Las recomendaciones incluyen sistemas de prueba para detectar sesgos, permitir auditorías independientes, limitar las afirmaciones de marketing exageradas y sopesar los daños sociales frente a los beneficios.
“Si su algoritmo da como resultado una discriminación crediticia contra una clase protegida, podría ser objeto de una denuncia por supuestas violaciones de la Ley FTC y la ECOA”, advierte la guía.
IA bajo control
La FTC ha recordado a las empresas de IA su guía de IA de 2021 con respecto a las afirmaciones de marketing exageradas o sin fundamento sobre las capacidades de la IA.
en el puesto de febrero 2023la organización advirtió a los especialistas en marketing que no se dejen llevar por la exageración de la IA y hagan promesas que sus productos no pueden cumplir.
Problemas comunes citados: Afirmar que la IA puede hacer más de lo que permite la tecnología actual, hacer comparaciones no respaldadas con productos que no son de IA y no probar el riesgo y el sesgo.
La FTC ha enfatizado que la comercialización falsa o engañosa constituye una conducta ilegal independientemente de la sofisticación de la tecnología.
El recordatorio llegó solo unas semanas después de que ChatGPT de OpenAI alcanzara los 100 millones de usuarios.
La FTC también ha emitido una lista de trabajo para tecnólogos durante este período, incluidos aquellos con experiencia en inteligencia artificial, para apoyar investigaciones, iniciativas de políticas e investigación sobre protección del consumidor y competencia en el sector tecnológico.
Deepfakes y trampas
Alrededor de un mes después, en MarzoLa FTC advirtió que las herramientas de inteligencia artificial como los chatbots y los deepfakes podrían facilitar el fraude generalizado si se implementan de manera irresponsable.
Advirtió a los desarrolladores y empresas que usan medios sintéticos e IA generativa que consideren los riesgos inherentes del mal uso.
La agencia dijo que los malos actores pueden usar el contenido realista pero falso de estos sistemas de IA para estafas de phishing, robo de identidad, extorsión y otros daños.
Si bien algunos usos pueden ser beneficiosos, la FTC ha instado a las empresas a sopesar la fabricación o venta de dichas herramientas de IA a la luz de la explotación delictiva previsible.
La FTC ha aconsejado a las empresas que continúan desarrollando o utilizando IA generativa que tomen precauciones estrictas para evitar el abuso.
También advirtió contra el uso de medios sintéticos en marketing engañoso y no revelar cuándo los consumidores interactúan con chatbots de IA en lugar de personas reales.
La inteligencia artificial propaga el malware
En el AbrilLa FTC ha revelado cómo los ciberdelincuentes se han aprovechado del interés en la inteligencia artificial para propagar malware a través de anuncios falsos.
Los anuncios falsos promocionaban herramientas de inteligencia artificial y otro software en las redes sociales y los motores de búsqueda.
Al hacer clic en estos anuncios, los usuarios serán llevados a sitios clonados que descargan malware o explotan puertas traseras para infectar dispositivos no detectados. La información robada luego se vendió en la web oscura o se usó para acceder a las cuentas en línea de las víctimas.
Para evitar la piratería, la FTC ha desaconsejado hacer clic en los anuncios de software.
Si los usuarios infectados necesitan actualizar sus herramientas de seguridad y sistemas operativos, siga los pasos para eliminar el malware O recuperar cuentas comprometidas.
La FTC ha advertido al público que tenga cuidado con los ciberdelincuentes que se están volviendo cada vez más sofisticados para propagar malware a través de redes publicitarias.
Las agencias federales unen fuerzas para abordar la regulación de la IA
Cerca del final Abrilcuatro agencias federales, la Oficina de Protección Financiera del Consumidor (CFPB), la División de Derechos Civiles del Departamento de Justicia (DOJ), la Comisión de Igualdad de Oportunidades en el Empleo (EEOC) y la FTC, han publicado una declaración sobre cómo monitorearán el desarrollo de AI y lo harán. leyes contra la discriminación y el sesgo en los sistemas automatizados.
Las agencias afirmaron su autoridad sobre la IA bajo las leyes existentes sobre derechos civiles, préstamos justos, igualdad de oportunidades y protección del consumidor.
Juntos, advirtieron que los sistemas de IA podrían perpetuar sesgos ilegales debido a datos defectuosos, modelos opacos y malas elecciones de diseño.
La asociación tenía como objetivo fomentar la innovación responsable en IA que aumenta el acceso, la calidad y la eficiencia del consumidor sin violar las protecciones de larga data.
IA y confianza del consumidor
En el PuedeLa FTC ha advertido a las empresas que no utilicen nuevas herramientas generativas de inteligencia artificial, como los chatbots, para manipular injustamente las decisiones de los consumidores.
Después de describir los eventos en la película. ex-cocheLa FTC ha argumentado que la persuasión humana por parte de los chatbots de IA podría llevar a las personas a tomar decisiones perjudiciales sobre las finanzas, la salud, la educación, la vivienda y el trabajo.
Si bien no es necesariamente intencional, la FTC ha dicho que los elementos de diseño que explotan la confianza humana en las máquinas para engañar a los consumidores constituyen prácticas desleales y engañosas según la ley de la FTC.
La agencia aconsejó a las empresas que eviten la antropomorfización excesiva de los chatbots y garanticen la divulgación de promociones pagas. entrelazados en interacciones de IA.
Con la adopción de la IA generativa en rápido aumento, la alarma de la FTC advierte a las empresas que evalúen de manera proactiva los impactos sociales posteriores.
Aquellos instrumentos que se introduzcan en el mercado sin una revisión ética o protecciones adecuadas correrían el riesgo de que la FTC tome medidas por el daño resultante para el consumidor.
Una opinión sobre los riesgos de la IA
La presidenta de la FTC, Lina Khan, dijo que la IA generativa conlleva el riesgo de generar un dominio tecnológico significativo, potenciar el fraude y automatizar la discriminación si no se controla.
En un artículo de opinión del New York Times, publicó una varios dias Después de la advertencia sobre la confianza del consumidor, Khan dijo que la FTC tiene como objetivo fomentar la competencia y proteger a los consumidores a medida que se expande la IA.
Khan advirtió que algunas empresas poderosas que controlan entradas clave de IA, como datos y computadoras, podrían aumentar su dominio en ausencia de supervisión antimonopolio.
Advirtió que el contenido falsamente realista en la IA generativa podría facilitar estafas a gran escala. Además, los algoritmos de riesgo de datos sesgados bloquean ilegalmente las oportunidades de las personas.
Si bien son nuevos, Khan dijo que los sistemas de inteligencia artificial no están exentos de las autoridades antimonopolio y de protección al consumidor de la FTC. Con una supervisión responsable, Khan señaló que la IA generativa podría crecer de manera justa y competitiva, evitando las trampas de los demás. gigantes tecnológicos.
IA y privacidad de datos
En el JunioLa FTC ha advertido a las empresas que las protecciones de privacidad del consumidor también se aplican a los sistemas de IA que dependen de datos personales.
En denuncias contra amazonia Y AnilloLa FTC ha expuesto prácticas desleales y engañosas que utilizan datos de voz y video para entrenar algoritmos.
El presidente de la FTC, Khan, dijo que los beneficios de la IA no superan los costos de privacidad de la recopilación invasiva de datos.
La agencia dijo que los consumidores retienen el control sobre su información incluso si la empresa es dueña de ella. Se implementan estrictos controles de acceso y salvaguardas cuando los empleados revisan datos biométricos confidenciales.
Para los datos de los niños, la FTC ha dicho que hará cumplir plenamente la Ley de Privacidad de los Niños, COPPA. Las denuncias ordenaron la eliminación de los datos biométricos obtenidos erróneamente y de los modelos de IA derivados de ellos.
El mensaje para las empresas de tecnología fue claro: si bien el potencial de la inteligencia artificial es enorme, las obligaciones legales relacionadas con la privacidad del consumidor siguen siendo primordiales.
Competición de IA generativa
Cerca del final JunioLa FTC ha emitido una guía que advierte que el rápido crecimiento de la IA generativa podría generar preocupaciones sobre la competencia si los insumos clave quedan bajo el control de unas pocas empresas tecnológicas dominantes.
La agencia dijo que se necesitan insumos críticos como datos, talento y recursos de TI para desarrollar modelos de IA generativos de vanguardia. La agencia advirtió que si un puñado de grandes empresas de tecnología obtienen demasiado control sobre estos insumos, podrían usar ese poder para distorsionar la competencia en los mercados de IA generativa.
La FTC ha advertido que las tácticas anticompetitivas como la venta por paquetes, la venta por paquetes, los acuerdos exclusivos o la compra de competidores podrían permitir que los titulares superen a los rivales emergentes y consoliden su liderazgo.
La FTC ha dicho que monitoreará los problemas de competencia relacionados con la IA generativa y tomará medidas contra las prácticas desleales.
El objetivo era permitir que los emprendedores innovaran con tecnologías de inteligencia artificial transformadoras, como los chatbots, que podrían remodelar las experiencias de los consumidores en todas las industrias. Con las políticas correctas implementadas, la FTC creía que la IA generativa emergente podría generar todo su potencial económico.
Afirmaciones de marketing sospechosas
Pronto JulioLa FTC ha advertido sobre las herramientas de IA que pueden generar falsificaciones profundas, voces clonadas y aumento de texto artificial, por lo que han surgido herramientas que afirman detectar dicho contenido generado por IA.
Sin embargo, los expertos han advertido que las afirmaciones de marketing realizadas por algunas herramientas de seguimiento podrían exagerar sus capacidades.
La FTC ha advertido a las empresas que no exageren la precisión y confiabilidad de sus herramientas de rastreo. Dadas las limitaciones de la tecnología actual, las empresas deben asegurarse de que el marketing refleje evaluaciones realistas de lo que estas herramientas pueden y no pueden hacer.
Además, la FTC señaló que los usuarios deben tener cuidado con las afirmaciones de que una herramienta puede detectar todas las falsificaciones de IA sin errores. La detección defectuosa podría llevar a que personas inocentes, como personas que buscan trabajo, sean acusadas injustamente de crear contenido falso.
¿Qué encontrará la FTC?
La investigación de la FTC sobre OpenAI se produce en medio de un creciente escrutinio regulatorio sobre los sistemas de IA.
A medida que estas poderosas tecnologías habilitan nuevas capacidades como chatbots y deepfakes, plantean nuevos riesgos relacionados con el sesgo, la privacidad, la seguridad, la competencia y el fraude.
OpenAI necesita responder preguntas sobre si ha tomado las precauciones adecuadas al desarrollar y lanzar modelos como GPT-3 y DALL-E que han dado forma a la trayectoria del campo de la IA.
La FTC parece estar enfocada en garantizar que las prácticas de OpenAI se alineen con las leyes de protección al consumidor, especialmente en lo que respecta a reclamos de marketing, prácticas de datos y mitigación de daños corporativos.
La forma en que reacciona OpenAI y si surgen acciones de cumplimiento podrían establecer precedentes significativos para la regulación a medida que avanza la IA.
Por ahora, la investigación de la FTC señala que la exageración que rodea a la IA no debería prevalecer sobre la supervisión responsable.
Los sistemas robustos de IA son muy prometedores, pero son riesgosos si se implementan sin garantías suficientes.
Las empresas líderes en IA deben asegurarse de que las nuevas tecnologías cumplan con las leyes vigentes que protegen a los consumidores y los mercados.
Imagen de presentación: Ascannio/Shutterstock
Fuente: searchenginejournal
Hashtags: #CEO #OpenAI #responde #consulta #FTC #medida #aumentan #las #preocupaciones #sobre
Comentarios recientes