La creciente dependencia de ChatGPT y otras plataformas de inteligencia artificial generativa (IA Gen) está generando nuevos desafíos para la privacidad digital. Un estudio de la empresa de ciberseguridad Indusface reveló que el 52% de los adultos en Estados Unidos utiliza habitualmente este tipo de modelos de lenguaje, y que un 38% de los empleados ha compartido información laboral confidencial con ellos sin la autorización de sus empleadores.
WhatsApp lanzó emojis animados: quiénes pueden usarlos y cómo habilitarlos
Los especialistas advierten que ciertos datos nunca deberían compartirse con la IA, ya que pueden ser almacenados, procesados o reutilizados, lo que expone a personas y empresas a filtraciones y riesgos legales.
Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Los cinco tipos de información que no debes compartir
1. Archivos de trabajo y documentos internos
Más del 80% de los empleados de empresas del índice Fortune 500 utilizan IA para redactar o mejorar textos corporativos. Sin embargo, un 11% incluye estrategias comerciales y documentos sensibles. Los expertos recomiendan eliminar cualquier dato confidencial antes de subir archivos, ya que los modelos pueden conservarlos indefinidamente.
2. Contraseñas y credenciales
Aunque la advertencia es conocida, un 24% de los usuarios guarda contraseñas en notas del dispositivo y un 18% en navegadores. Ingresarlas en ChatGPT u otro LLM puede derivar en filtraciones o uso indebido, ya que no están diseñados para garantizar privacidad absoluta.
Casi siete de cada 10 argentinos ya utilizó la inteligencia artificial en alguna de las etapas de un viaje
3. Datos personales e identidad digital
Información como nombre completo, dirección o imágenes reconocibles puede parecer inofensiva, pero su acumulación facilita el fraude, la suplantación de identidad e incluso la creación de deepfakes. El riesgo se multiplica en entornos corporativos, donde puede afectar a clientes y colegas.
4. Información financiera
Aunque las IA pueden explicar conceptos económicos, no están preparadas para tomar decisiones empresariales basadas en cifras reales. Compartir datos financieros sensibles implica riesgo de fuga de información estratégica y conclusiones erróneas por errores en los cálculos.
xAI libera Grok 4 para todos los usuarios: cómo usar gratis la IA más avanzada de la compañía
5. Código fuente y propiedad intelectual
Desarrolladores que comparten fragmentos de código base exponen la propiedad intelectual de sus empresas. Estos datos pueden ser almacenados y reutilizados en entrenamientos futuros, quedando potencialmente accesibles a terceros no autorizados.
Según Andrés Deyá, presidente de la Federación Argentina de Asociaciones de Empresas de Viajes y Turismo, en referencia a otra industria que vive un auge digital, la planificación anticipada es clave para proteger recursos. En el caso de la IA, la “planificación” implica establecer protocolos claros de uso y capacitar a los empleados para reconocer qué información puede compartirse y cuál no.
Los expertos coinciden en que la regla principal es simple, todo dato que no compartirías públicamente, tampoco debería ingresar en ChatGPT.
LV/ff