La FTC contra OpenAI y ChatGPT: ¿Una amenaza para la precisión y privacidad de los usuarios?

La FTC contra OpenAI y ChatGPT: ¿Una amenaza para la precisión y privacidad de los usuarios?
La FTC tiene en la mira a OpenAI y ChatGPT

La FTC (Comisión Federal de Comercio) ha iniciado una investigación contra OpenAI y su aclamado sistema de inteligencia artificial, ChatGPT. Esta investigación se basa en la preocupación de que ChatGPT pueda estar perjudicando a los usuarios al generar y publicar información falsa.

A medida que los avances en IA continúan, es crucial garantizar la transparencia y la precisión en estas tecnologías, y la FTC busca determinar si OpenAI ha cumplido con estas expectativas.

Los cuestionamientos de la FTC

El Wall Street Journal ha informado que la FTC ha enviado una citación civil a OpenAI, iniciando una investigación exhaustiva. La comisión se centra en determinar si OpenAI ha empleado prácticas injustas o engañosas relacionadas con la privacidad y seguridad de los datos de los usuarios. Para recopilar información, la FTC ha solicitado a OpenAI que responda a un cuestionario detallado.

Descripción de los productos y funcionamiento

La FTC busca una explicación detallada del funcionamiento de los modelos de inteligencia artificial de OpenAI, incluido ChatGPT y Dall-E, así como sus interacciones con terceros a través de plug-ins.

Además, se requiere información sobre el origen de los datos utilizados para entrenar GPT-4, así como los procedimientos para refinar el modelo y combatir la propagación de información errónea.

Riesgos y preocupaciones

Uno de los principales puntos de interés de la FTC es evaluar las medidas tomadas por OpenAI para abordar y mitigar los riesgos asociados con la generación de declaraciones falsas, engañosas o despectivas sobre personas reales.

Esta preocupación surge debido a la capacidad de ChatGPT para inventar información respaldada por estudios inexistentes, lo que podría tener implicaciones negativas para los usuarios.

Registro de quejas y seguridad de los usuarios

La FTC ha solicitado a OpenAI que comparta los registros de quejas relacionadas con ChatGPT, especialmente aquellas que involucran la publicación de declaraciones falsas, despectivas o dañinas sobre personas.

Además, se ha pedido información sobre una brecha de seguridad que expuso información personal de los usuarios de este chatbot. La FTC busca abordar preocupaciones relacionadas con la privacidad y seguridad de los productos de OpenAI.

La queja del CAIDP y las implicaciones legales

La investigación de la FTC surge a raíz de una queja presentada en marzo por el Centro de IA y Política Digital (CAIDP). Según el CAIDP, el modelo impulsado por GPT-4, utilizado en ChatGPT, representa un riesgo para la privacidad y seguridad pública, además de violar la ley federal de protección al consumidor al carecer de evaluaciones independientes.

En caso de que se demuestre que OpenAI ha violado la ley, la FTC tiene la autoridad para imponer multas o limitaciones a futuras versiones del chatbot.