Ciberseguridad: solo el 2% de las empresas están preparadas para una adopción controlada de la IA
Un nuevo informe de la empresa de tecnología F5 destaca que solo el 2% de las organizaciones globales están “altamente preparadas” para utilizar la IA de forma segura en sus operaciones.
El estudio, que recopila las perspectivas de 800 líderes y estrategas de TI a nivel mundial, confirma que, si bien un 96% de las organizaciones ya están implementando modelos de IA, la capacidad operativa para mantener estos sistemas es críticamente baja. Esto significa que, en su prisa por adoptar nuevas tecnologías, la mayoría de las empresas carece de una gobernanza robusta y de seguridad multi-nube, exponiéndose a riesgos considerables.
En Argentina menos de 10 empresas locales tienen hoy una postura clara y un plan de desarrollo de IA dentro de su corporación. “Lo que está pasando es un grado de informalidad muy grande, donde los empleados utilizan la IA de manera no estandarizada y fuera de la política de la compañía”, declara Bernabé Crena, especialista de F5 LATAM.
El Riesgo de una IA sin controles
A pesar de que el 71% de las empresas ya utiliza la Inteligencia Artificial para mejorar su propia seguridad, la ironía es que no lo están haciendo adecuadamente y quedan expuestas de todas formas. En ese sentido, los datos que propone F5 son alarmantes:
- Protecciones insuficientes: solo el 31% de las organizaciones ha implementado firewalls de IA, y esta cifra desciende al 18% entre las empresas con preparación “moderada”. Esto deja a la IA misma desprotegida ante ataques específicos.
- Gobernanza de datos deficiente: apenas el 24% de las organizaciones etiqueta sus datos de forma continua. Esta falta de transparencia aumenta los riesgos de ataques adversarios, comprometiendo la integridad y privacidad de la información procesada por la IA.
- Brechas multi-nube: los complejos entornos híbridos generan inconsistencias en la gobernanza, dejando flujos de trabajo y datos críticos expuestos a vulnerabilidades.
- Superficie de ataque ampliada: la diversidad de modelos de IA, especialmente el uso de herramientas de código abierto (casi el 65% de los encuestados) sin los controles adecuados, incrementa exponencialmente la superficie de ataque para los ciberdelincuentes.
“Cualquier empresa que quiera usar IA para optimizar sus procesos se puede meter en un fango. En el momento en que se brinda información sensible de la compañía a una IA, hay riesgos que se corren”, asegura Crena. Detalla que, en Estados Unidos, donde se prevé que el mejor programador a finales del 2025 va a ser una IA, los gerentes aún así prefieren programadores humanos para evitar que el código sea elaborado por una máquina cuyas intenciones son desconocidas.
Cómo es la situación a nivel nacional
La brecha global en la preparación para el uso de la IA se agudiza en Argentina, donde la informalidad y el desconocimiento de los riesgos son alarmantes. Según Bernabé Crena solamente el 0, 01% de las empresas nacionales tiene un plan a la hora de usar IA.
El especialista ilustra este peligro con un ejemplo: “un gerente de una empresa de transporte buscaba optimizar rutas de entrega y alimentó a una IA muy conocida con una gran cantidad de información sensible de la compañía. Lo mostró como un logro, sin darse cuenta de que exponía datos críticos sin una postura de seguridad correcta”.
“Los chatbots, aunque avanzados, son fácilmente engañables. Por más que un usuario esté logueado con doble factor de autenticación, un cibercriminal podría convencer al chatbot de que es otra persona y lograr, por ejemplo, transferencias no autorizadas”, advierte el ingeniero. También sugiere que “esto forma parte de los 10 ataques más perjudiciales que se están haciendo con modelos de IA en este momento, y es una de las razones por las que Argentina está tan detenida en el tema: por el miedo al desastre”.
A la vez, la situación se agrava por la falta de talento especializado en seguridad de IA en el país. “No solo en Argentina sino en el mundo, hay muy poca gente que sepa del tema. Al ser tan incipiente y cambiar tan rápido, las empresas necesitan un especialista que se dedique full-time a la seguridad de la IA, no un generalista. Hasta que eso no ocurra, los riesgos seguirán creciendo”, enfatiza el referente.
Recomendaciones de F5 para una IA Segura y Productiva
El Informe introduce el Índice de Preparación para la IA, se trata de un marco que evalúa los factores de madurez operativa. En este sentido, F5 destaca acciones esenciales para que las empresas mejoren la escalabilidad y seguridad de la IA y eviten resultados contraproducentes:
- Diversificar modelos de IA: emplear tanto herramientas de pago como de código abierto, fortaleciendo la gobernanza para mitigar riesgos.
- Integrar seguridad específica para IA: desplegar protecciones como firewalls de IA y formalizar la gobernanza de datos (ej. etiquetado continuo) para salvaguardar los flujos de trabajo.
- Tratar la IA como una capacidad de plataforma: ver la IA como una función central e integrada que potencia toda la organización desde la seguridad.