Tecnología

El peligro de la «memoria» de la IA: ESET advierte sobre los riesgos de usar ChatGPT

La comodidad de las herramientas de Inteligencia Artificial generativa ha ocultado, para muchos usuarios, una realidad técnica preocupante: nada de lo que escribes es efímero. La compañía de ciberseguridad ESET ha lanzado una alerta sobre los riesgos críticos de privacidad y seguridad al interactuar con modelos como ChatGPT o Gemini.

La ilusión de la privacidad

Contrario a la percepción popular, las conversaciones no desaparecen al cerrar el navegador. ESET explica que la información enviada pasa por un proceso de tres etapas: almacenamiento en servidores externos, uso para el entrenamiento de futuros modelos y revisión humana de fragmentos anonimizados. Esto implica que cualquier dato vertido en el chat deja de estar bajo el control exclusivo del usuario.

El riesgo corporativo y el mercado negro

Uno de los puntos más críticos es la filtración inadvertida de información sensible. ESET advierte que introducir planes estratégicos, claves de acceso, datos de clientes o código de programación es un error grave, ya que estos datos podrían ser integrados al «conocimiento público» de la IA y terminar expuestos a terceros.

A esto se suma una amenaza externa: la ciberdelincuencia. Durante el año 2024, se detectaron más de 225,000 credenciales de ChatGPT a la venta en la dark web, obtenidas principalmente a través de malware. El valor de estas cuentas no es solo el acceso a la suscripción, sino el historial de conversaciones que puede contener secretos industriales o personales.

Cómo protegerse: Recomendaciones esenciales

Para mitigar estos riesgos, los expertos sugieren tres pilares fundamentales:

  • Anonimización estricta: Nunca compartir nombres reales, direcciones o datos específicos de empresas.

  • Seguridad de cuenta: Utilizar contraseñas robustas y activar obligatoriamente la autenticación de dos factores (2FA).

  • Gestión de privacidad: Acceder a los ajustes de la IA para desactivar manualmente el historial de conversaciones y el uso de datos para entrenamiento.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba