Inteligencia artificial y gestión de la privacidad: Innovación responsable

Inteligencia artificial y gestión de la privacidad: Innovación responsable

Por: Alejandro Vergara, Integrador de Inteligencia Artificial de IQSEC

En los últimos años, la inteligencia artificial (IA) ha dejado de ser un concepto futurista para convertirse en una herramienta cotidiana que permea todos los ámbitos, desde los sistemas de recomendación en plataformas digitales hasta los mecanismos que detectan fraudes financieros o amenazas informáticas.

No obstante, este crecimiento vertiginoso y uso exponencial ha elevado el riesgo de filtraciones de datos confidenciales, abriendo un debate necesario sobre los límites de su uso, la protección de los datos personales y el equilibrio entre eficiencia y ética. 

La IA promete optimizar tareas, reducir costos y mejorar la toma de decisiones, pero también plantea un dilema central: ¿qué tanto de nuestra privacidad estamos dispuestos a sacrificar a cambio de conveniencia y automatización? En un mundo hiperconectado, donde cada interacción genera trazas digitales, la línea entre innovación y exposición se vuelve cada vez más delgada.

La principal amenaza no radica en la tecnología en sí, sino en su aplicación sin controles adecuados. Actualmente, los empleados transmiten involuntariamente diversos tipos de información sensible a modelos de IA generativa sin autorización corporativa, fenómeno conocido como Shadow AI. Según IBM, más del 38% de los empleados reconocen compartir información laboral confidencial con herramientas de IA sin permiso de sus empleadores.

Asimismo, la situación se complica cuando estas plataformas operan bajo esquemas gratuitos. El costo que no se paga con dinero suele pagarse con datos. Al aceptar términos de servicio poco transparentes, las personas permiten que sus interacciones sean analizadas, almacenadas o compartidas con fines comerciales o de entrenamiento. En consecuencia, la protección de la identidad digital ya no depende únicamente de contraseñas o cifrado, sino de la conciencia con la que se decide qué información compartir y con quién.

Riesgos de mayor impacto para las organizaciones

La información sensible se transmite principalmente de tres maneras: prompts directos en chatbots públicos (ChatGPT, Gemini), documentos cargados para análisis o resumen, y datos introducidos para automatizar tareas como redacción de correos, informes o análisis de datos. 

Te podría interesar: México crea más de 550,794 empleos formales en los primeros diez meses de 2025

Esta transmisión ocurre mayormente por desconocimiento del riesgo, presión por aumentar la productividad, y ausencia de políticas claras sobre uso de IA.  El tipo de información que puede ser transmitida y que pone en mayor riesgo a las organizaciones son: 

  • Datos personales: nombres completos, direcciones de correo electrónico, números telefónicos, fechas de nacimiento, direcciones físicas y números de identificación fiscal o de seguridad social.
  • Información empresarial estratégica: planes de negocio, estrategias corporativas, proyectos no publicados, investigaciones propietarias, código de software interno, análisis financieros, información de fusiones y adquisiciones.
  • Datos de clientes: registros de clientes, historiales de compra, información contractual, datos de contacto y preferencias comerciales.
  • Información técnica y operativa: bases de datos corporativas, contraseñas, credenciales de acceso, configuraciones de sistemas, reportes internos y documentos oficiales.
  • Datos financieros y médicos: registros bancarios, información de salud protegida, información fiscal y detalles de cuentas financieras.

Mecanismos de protección actuales y sus limitaciones

Muchas organizaciones carecen de controles de acceso adecuados y políticas de gobernanza que eviten violaciones de seguridad relacionadas con la IA. Los mecanismos que son necesarios implementar y fortalecer son:

Políticas de uso aceptable: muchas empresas solo tienen políticas básicas que prohíben compartir información confidencial, pero sin un fortalecimiento técnico.

Herramientas de prevención de pérdida de datos: sistemas tradicionales que monitorean transferencias de datos, pero que frecuentemente no están adaptados para detectar transmisión de información entre aplicaciones, agentes, usuarios y los LLM como ChatGPT, Gemini, etc.

Controles de acceso y autenticación: es necesario limitar el acceso a herramientas corporativas aprobadas mediante Single Sign-On (SSO) y autenticación multifactor.

Capacitación y concientización: programas educativos sobre riesgos de IA, aunque el 55% de las personas no han recibido capacitación sobre uso seguro de IA, de acuerdo con el Informe Oh Behave 2024.

Enmascaramiento y anonimización: técnicas de eliminación de información personal antes de enviar datos a los LLMs, implementadas en algunas plataformas empresariales.

Finalmente, cabe destacar que las políticas de gobierno respecto al uso de la IA no son suficientes para asegurar la información en las organizaciones. El uso de tecnología es también necesario si queremos asegurar y comprobar que esas políticas se aplican, así como evitar filtraciones involuntarias. La mayoría de las organizaciones no cuenta con herramientas de seguridad en tiempo real (por ejemplo AI Firewalls) que filtren prompts antes de llegar al LLM, sistemas de detección de prompt injection y ataques adversariales, monitoreo continuo de interacciones con modelos de IA, ni clasificación automática de sensibilidad de datos, antes de procesamiento.  Implementar mecanismos de control de acceso a la IA requiere de recursos destinados a fortalecer la infraestructura, los procesos y las personas.

Lo último:

The post Inteligencia artificial y gestión de la privacidad: Innovación responsable appeared first on Alto Nivel.