Una de las quejas más extendidas por parte de usuarios de todo el mundo a la hora de utilizar las diferentes plataformas de inteligencia artificial, se centra en aquello relacionado con la privacidad. Y es que en ocasiones estas plataformas exponen más datos personales de los usuarios, de lo que nos gustaría.
Pues bien, debemos tener presente que uno de los máximos exponentes en esta tecnología, como es OpenAI, acaba de lanzar Privacy Filter. Aquí nos referimos a un modelo de código abierto diseñado para ocultar nuestros datos personales al utilizar estos servicios y aplicaciones inteligentes.
Os contamos todo esto porque la empresa acaba de anunciar Privacy Filter, su nuevo modelo de IA diseñado para detectar y ocultar información personal identificable en los textos que aquí usamos. Esta versión de código abierto presenta un modelo compacto enfocado en flujos de trabajo centrados en la privacidad.
Todo ello permite a los desarrolladores de las plataformas de IA, identificar la información sensible en documentos, registros y conjuntos de datos, antes de que todo ello se almacene o comparta con otros. Cabe destacar que el modelo como tal está diseñado para funcionar como un componente más en un proceso general de privacidad al usar la inteligencia artificial, en lugar de reemplazar las políticas en entornos sensibles.
Así, el modelo Privacy Filter puede detectar los datos personales en una amplia gama de formatos de texto no estructurado. Procesa grandes cantidades de información de una sola pasada, identificando fragmentos sensibles y marcándolos para su ocultación o eliminación sin generar textos de reemplazo.
Ventajas de la IA Privacy Filter frente a los métodos tradicionales
Hay que decir que los desarrolladores pueden ejecutar Privacy Filter directamente en sus propios sistemas, lo que permite filtrar el texto sensible antes de que salga de los equipos. Esto se traduce en que su ejecución local reduce la necesidad de transmitir datos sin filtrar a servicios externos. Como os podéis imaginar, todo ello facilita los flujos de trabajo donde se deben aplicar controles de privacidad antes del almacenamiento, indexación o registro.
Debemos saber que las herramientas tradicionales de detección de datos personales suelen basarse en reglas de coincidencia de patrones. Si bien estas reglas funcionan bien para formatos fijos como números de teléfono y direcciones de correo, pueden pasar por alto datos sensibles que dependen del contexto.
