Logo

De Cero a Mil: El Ascenso Meteórico de la IA Generativa

Un informe de Palo Alto Networks revela que el uso empresarial de aplicaciones de IA generativa creció un 890 % en el primer trimestre de 2025.

13 junio, 2025
IA en las empresas. Imagen. Pixabay.
IA en las empresas. Imagen. Pixabay.

En los primeros tres meses de 2025, la inteligencia artificial generativa vivió un impulso exponencial. Según el informe State of GenAI de la firma de ciberseguridad Palo Alto Networks, se registró un crecimiento del 890 % en el tráfico generado por estas aplicaciones en el uso empresarial 

.En otras palabras: se multiplicó por diez en solo un trimestre.

Este aumento responde al despliegue masivo de herramientas como ChatGPT, Microsoft Copilot, PowerApps y el modelo R1 de DeepSeek. En España, el 70 % de todo ese tráfico se concentra en Copilot (24,1 %), PowerApps (23,9 %) y ChatGPT (23,5 %)  .

¡Recibe las últimas noticias!

A nivel global, R1 destacó con un incremento de tráfico del 1 800 % desde su lanzamiento en enero.

¿Por qué crecen tanto estas plataformas? Principalmente porque las empresas han adop­tado la IA generativa para mejorar productividad. Se usa en redacción, generación de código, asistencia en decisiones, creación de contenido y automatización de tareas repetitivas.

De hecho, el 84 % del uso corresponde a asistentes de escritura, chatbots, buscadores internos y entornos de desarrollo.

Riesgos asociados

Aunque este crecimiento indica un avance tecnológico evidente, también ha generado efectos negativos importantes:

  • Fugas de datos confidenciales: los incidentes de pérdida de datos sensibles (DLP) pasaron del 3 % al 14 % del total en apenas dos meses. Eso significa que la IA está amplificando la exposición de información empresarial y la propiedad intelectual.
  • Uso no autorizado (Shadow AI): en promedio, cada empresa utiliza unas 66 aplicaciones de IA generativa, muchas de ellas sin controles adecuados. Cerca de 6,6 son usadas sin autorización formal, lo que dificulta supervisión y representa un riesgo legal y de cumplimiento 
  • Vulnerabilidades tipo jailbreak: más del 70 % de estas plataformas podrían ser manipuladas para ejecutar acciones ilegales o revelar información restringida. Esto representa una amenaza seria ante usuarios malintencionados.

Medidas recomendadas

Palo Alto Networks alerta sobre la urgencia de establecer marcos técnicos y éticos sólidos para el uso seguro de la IA generativa. Entre las acciones sugeridas se encuentran:

  1. Definir políticas de acceso y jerarquizar permisos según roles, riesgo y finalidad.
  2. Implementar inspección en tiempo real de flujos de datos, para detectar filtraciones.
  3. Adoptar una arquitectura de confianza cero (Zero Trust) que controle accesos y monitorice interacciones con la IA 

¿Qué significa todo esto?

  • Oportunidad tecnológica: La IA generativa puede multiplicar la productividad: escribe informes, diseña prototipos, genera código o mejora la atención al cliente.
  • Desafío de seguridad: El uso irresponsable lleva a robos de datos y vulnerabilidades. Las empresas deben proteger su información con sistemas robustos.
  • Necesidad de regulación interna: No basta con instalar herramientas; hace falta cultura corporativa que integre controles técnicos, formación y vigilancia constante.

Inteligencia artificial. Imagen. Pixabay.
Inteligencia artificial. Imagen. Pixabay.

La explosión del tráfico de IA generativa demuestra un cambio profundo en cómo las empresas trabajan. Pero esta transformación trae consigo riesgos que no pueden igno­rarse. Aumentan las fugas de información, el uso no supervisado y las vulnerabilidades.

Por ello, se requiere un enfoque equilibrado: aprovechar su potencial con responsabilidad, respaldado por políticas técnicas, marcos éticos y supervisión continua.

Este es el momento clave: adoptar la IA generativa no solo por su eficiencia, sino también por su seguridad y bienestar colectivo. Así, las empresas podrán impulsar su innovación sin sacrificar su información más valiosa.




Enlaces patrocinados