Meta: cómo sus modelos de IA generativa dicen proteger la privacidad de sus usuarios

En Meta Connect, la plataforma presentó demasiadas nuevas funciones que integran la inteligencia artificial Generativa, como chatbots cuya imagen es Kendall Jenner o Snoop Dogg. Aseguraron que estas herramientas pasan por una “rigurosa” revisión de privacidad, lo que en teoría ayuda a garantizar el uso responsable de los datos de los usuarios.

Junto con las funciones anunciadas, se lanzó una Guía de Privacidad de IA generativa con el fin de que las personas comprendan cómo se construyen los modelos y qué controles y derechos de privacidad de datos tienen.

De qué va la guía

Las herramientas de inteligencia artificial generativa dirigidas a los consumidores presentadas recientemente fueron desarrolladas a partir del trabajo realizado en el modelo de lenguaje grande de Meta, Llama 2. Se emplearon datos provenientes de algunos productos y servicios, como de Bing, el motor de búsqueda web de Microsoft.

Las publicaciones compartidas públicamente de Instagram y Facebook (incluidas fotos y texto) fueron parte de los datos utilizados para entrenar los modelos generativos de IA subyacentes a las funciones dichas en Connect.

“No entrenamos estos modelos utilizando publicaciones privadas de personas. Tampoco usamos el contenido de sus mensajes privados con amigos y familiares para entrenar nuestras IA”, dijo Meta.

Además, se incorporaron medidas adicionales de privacidad y acciones para preservar la integridad a medida que se construían nuevos modelos.

Información compartida con los chatbots

Aseguraron que si utilizan la información que las personas comparten cuando interactúan con sus funciones de IA generativa, como Meta AI o empresas que emplean IA generativa, para “mejorar sus productos y para otros fines”.

Sin embargo, destacaron que “entrenaron y ajustaron sus modelos de IA generativa para limitar la posibilidad de que la información privada que se comparte con funciones de IA generativa aparezca en respuestas para otras personas”. Explicaron que este sucede gracias a la implementación de una tecnología que opera junto al criterio humano para revisar las interacciones de la IA para que sea posible, entre otras cosas, reducir la probabilidad de que los resultados de los modelos incluyan información personal de alguien.

Control al usuario

Los chatbots tienen integrados comandos que permiten eliminar la información compartida en cualquier chat con una IA en Messenger, Instagram o WhatsApp. Por ejemplo, los usuarios pueden borrar sus mensajes de IA escribiendo «/reset-ai» en una conversación

El uso de una función de IA generativa proporcionada por Meta no vincula la información de la cuenta de WhatsApp con la información de la cuenta en Facebook, Instagram ni ninguna otra aplicación proporcionada por Meta.

Tal como funciona Meta AI hoy en día, Meta no puede incorporarla al chat en WhatsApp, Instagram o Messenger, y no puede enviar el primer mensaje de conversación contigo ni con tu grupo.

En los chats grupales con amigos y familiares donde alguien le pide a Meta AI que se una, esta IA conversacional solo lee mensajes que invocan a «@Meta AI» o mensajes en los que una respuesta invoca a «@Meta AI». Meta AI no accede a otros mensajes en el chat.

Asimismo, se incorporó una ventana de transparencia en las interacciones de las personas con las funciones de IA generativa y se desarrolló materiales educativos sobre IA generativa y privacidad.

Por ejemplo, se le hace saber a las personas que es posible que los chatbots no tengan la información más completa o reciente. Asimismo, las imágenes fotorrealistas creadas por las funciones de IA generativa de Meta incluyen marcas de agua visuales para dejar claro que la imagen ha sido creada con esos medios.

Meta participa junto con otras empresas pares de la industria en la “Partnership on AI’s Synthetic Media Framework” y ha firmado compromisos voluntarios de la Casa Blanca para la IA.

Fuente: Infobae

*

*

Top