Netskope: Los datos financieros regulados son la principal causa de las infracciones de las políticas de datos en la inteligencia artificial (IA) generativa y la nube
Los datos sujetos a regulación son responsables del 59 % de todas las infracciones de políticas de datos relacionadas con el uso de la IA generativa
Madrid, 8 de abril de 2026 – Netskope (NASDAQ: NTSK), líder en seguridad y redes modernas para la era de la nube y la IA, ha publicado hoy la edición de 2026 del informe anual sobre servicios financieros elaborado por los expertos de Netskope Threat Labs
Con la rápida adopción de la IA generativa (genAI) por parte de las empresas de servicios financieros, aumenta el riesgo de que se exponga información confidencial de los clientes y de la entidad. Los datos sujetos a regulación son responsables del 59 % de todas las infracciones de políticas de datos relacionadas con el uso de la IA generativa, lo que pone de manifiesto la magnitud del problema que supone el cumplimiento de la normativa sobre la protección de la información sensible. La propiedad intelectual (20 %), el código fuente (11 %) y las contraseñas y claves API (9 %) también contribuyen a aumentar el nivel de exposición.
Estos peligros son especialmente importantes dado el uso generalizado de la IA generativa en los servicios financieros: el 70 % de los usuarios utiliza activamente herramientas de IA generativa y el 97 % interactúa indirectamente con aplicaciones que incorporan funciones impulsadas por esta tecnología. Además, el 94 % de los usuarios utiliza aplicaciones de IA generativa que utilizan los datos de los usuarios para su entrenamiento.
Al mismo tiempo, las empresas están avanzando en la reducción del uso de la IA en la sombra. En el último año, la proporción de usuarios que dependen de aplicaciones personales de IA generativa ha descendido significativamente, pasando del 76 % al 36 %, mientras que la adopción de soluciones de IA generativa gestionadas por la organización ha aumentado del 33 % al 79 %. Sin embargo, el número de usuarios que alternan entre cuentas personales y cuentas de IA generativa gestionadas por la organización ha pasado del 9 % al 15 %, lo que incrementa el riesgo de que datos financieros sensibles se transfieran entre entornos no gestionados y entornos seguros.
El ecosistema de la IA generativa también se está diversificando. ChatGPT sigue siendo la aplicación más utilizada, con una adopción del 76 % entre las organizaciones, seguida de Google Gemini, con un 68 %. Las herramientas más recientes también están ganando terreno rápidamente: Google NotebookLM alcanza una adopción del 39 %, y AssemblyAI ha experimentado un fuerte aumento, pasando de apenas un 1 % en junio de 2025 a un 37 %, lo que refleja la creciente demanda de capacidades especializadas de IA.
Por otra parte, las empresas están adoptando un enfoque más cauteloso ante los posibles riesgos y herramientas como ZeroGPT (46 %), DeepSeek (44 %) y PolitePost (43 %) se encuentran entre las aplicaciones de IA generativa más bloqueadas, debido a preocupaciones sobre la seguridad y el cumplimiento normativo.
Además de la IA, el uso de la nube personal y de las aplicaciones en línea en el ámbito laboral sigue generando problemas de seguridad de los datos. Los datos regulados suponen el 65 % de las infracciones de las políticas de datos en estas aplicaciones personales, lo que demuestra que la información financiera sensible es más vulnerable cuando los empleados trabajan fuera de entornos supervisados. En el sector de los servicios financieros, LinkedIn (92 %), Google Drive (84 %) y ChatGPT (77 %) son las aplicaciones personales más utilizadas en el trabajo.
Además de estos riesgos, los ciberdelincuentes suelen recurrir a plataformas en la nube de confianza para distribuir malware. En la actualidad, GitHub es la plataforma más utilizada para distribuir malware, y afecta al 11 % de las organizaciones. Le sigue Microsoft OneDrive, con un 8 %. Al utilizar una infraestructura en la nube de confianza en lugar de dominios sospechosos, los atacantes pueden camuflar la actividad maliciosa entre el tráfico normal, lo que hace que las amenazas sean mucho más difíciles de detectar.
Ray Canzanese, director de Netskope Threat Labs, comentó: «A medida que las entidades financieras aceleran el uso de la IA generativa, también se multiplican las vías por las que los datos confidenciales pueden verse expuestos. Aunque el cambio hacia herramientas gestionadas por la organización es un paso positivo, nuestros análisis demuestran que los riesgos siguen presentes, especialmente cuando se solapan los usos personales y corporativos». Para reducirlos, las organizaciones necesitan un enfoque por capas: inspeccionar todo el tráfico web y en la nube para detener el malware, bloquear las aplicaciones no esenciales y utilizar la prevención de pérdida de datos para proteger la información confidencial. Tecnologías como el aislamiento remoto del navegador también desempeñan un papel clave a la hora de permitir un acceso seguro a sitios web de alto riesgo».
En el informe completo se pueden consultar más análisis de amenazas y estadísticas.
Metodología: la información presentada en este informe se basa en datos de uso anonimizados de un subconjunto de clientes de Netskope del sector de los servicios financieros a nivel mundial, recopilados entre el 1 de febrero de 2025 y el 28 de febrero de 2026 con autorización previa.


