Falla mundial en ChatGPT: millones de conversaciones desprotegidas en dispositivos Apple

0
111
Los usuarios de ChatGPT en Mac quedaban desprotegidos debido a que sus conversaciones no estaban cifradas. (Fotocomposición: Infobae)

La aplicación de escritorio de ChatGPT para Mac almacenaba las conversaciones de los usuarios sin cifrar y en una ubicación poco segura del ordenador. Esto hacía posible que cualquier persona malintencionada, a través de un virus, pudiera acceder a las interacciones de los usuarios con el chatbot.

“Básicamente, cualquier otra aplicación, proceso o malware en ejecución puede leer todas tus conversaciones de ChatGPT sin necesidad de solicitar permiso”, explicó el ingeniero en esta red social.

Cuando la compañía de inteligencia artificial se enteró de la falla, actualizó la aplicación al agregar cifrado a las conversaciones.

“OpenAI decidió prescindir del sandbox y almacenar las conversaciones en texto simple en una ubicación no protegida, deshabilitando todas estas defensas integradas”, dijo.

“Sandbox” se refiere a un entorno de seguridad aislado y controlado donde las aplicaciones pueden ejecutarse de manera segura y limitada. Este entorno restringe el acceso de las aplicaciones a recursos críticos del sistema, como archivos sensibles o configuraciones del sistema operativo.

El ingeniero señaló que el error era culpa de OpenAI por saltar las medidas de sandbox. (Threads: pvieito)El ingeniero señaló que el error era culpa de OpenAI por saltar las medidas de sandbox. (Threads: pvieito)

Qué significa que un chat no esté cifrado

Cuando se dice que un chat no está cifrado, significa que las conversaciones enviadas y recibidas a través de esa plataforma o aplicación no están protegidas mediante un proceso de cifrado.

El cifrado es un método de seguridad que convierte los datos en un formato ilegible o encriptado mientras viajan por la red, de manera que solo el emisor y el receptor autorizados pueden entender el contenido utilizando una clave de descifrado.

Por esta razón, cualquier persona tenía la capacidad de leer las conversaciones que un usuario entabla en ChatGPT.

Los chats cifrados son más seguros ya que convierten en código ilegible los mensajes enviados.  (Imagen ilustrativa Infobae)Los chats cifrados son más seguros ya que convierten en código ilegible los mensajes enviados. (Imagen ilustrativa Infobae)

Cómo OpenAI entrena a ChatGPT

OpenAI, la entidad detrás de ChatGPT, emplea la información proporcionada por los usuarios para alimentar su sistema de inteligencia artificial. Según la empresa, esta estrategia contribuye a “perfeccionar el modelo”, dejando a decisión de cada usuario determinar si desea colaborar en este proceso.

“Conservamos ciertos datos de sus interacciones con nosotros, pero tomamos medidas para reducir la cantidad de información personal en nuestros conjuntos de datos de entrenamiento antes de que se utilicen para mejorar y entrenar nuestros modelos”, explica la compañía en página de políticas y privacidad, sin embargo, el texto no especifica qué información concreta guarda para su sistema.

Agregan que el contenido enviado por los usuarios no es utilizado en sus ofertas comerciales como su API, ChatGPT Team y ChatGPT Enterprise.

Los usuarios deben desactivar esta opción si desean que sus datos no sean usados para entrenar a la IA. (ChatGPT)Los usuarios deben desactivar esta opción si desean que sus datos no sean usados para entrenar a la IA. (ChatGPT)

A través de unos simples pasos, los usuarios tienen la oportunidad de gestionar esta configuración para mantener privados sus datos.

Cómo evitar que OpenAI use mis datos para entrenar a ChatGPT

1. Ingresar a ChatGPT con la sesión iniciada.

2. Ir a la esquina superior derecha, seleccionar la foto del usuario y dirigirse a Configuración.

3. Seleccionar ‘Controles de datos’.

4. Ir al apartado de ‘Mejora el modelo para todos’ y desactivar esta opción.

5. Pulsar ‘Listo’.

OpenAI explica que la opción Mejora el modelo para todos permite utilizar el contenido de los usuarios para entrenar sus modelos. Sin embargo, la decisión de contribuir con datos personales para el desarrollo de la inteligencia artificial es individual y depende de la elección de cada usuario.

Fuente Infobae

Dejar respuesta

Please enter your comment!
Please enter your name here