Miguel Ángel Valero
Con el último modelo de inteligencia artificial generativa o GenAI, DeepSeek, revolucionando el mercado actual de la IA, una investigación de Sophos alerta sobre algunas posibles consecuencias que estos nuevos modelos de código abierto pueden tener sobre la ciberseguridad. En Más allá del Hype: La realidad empresarial de la IA para la ciberseguridad, se muestra que el 65% ha adoptado funciones de GenAI. Y se revela que el 89% de los profesionales de TI/ciberseguridad se muestran preocupados por los posibles fallos en las capacidades GenAI de las herramientas de ciberseguridad que pueden perjudicar a su empresa.
Aunque el 99% de los responsables de TI afirmaron haber evaluado "el calibre de los procesos y controles de ciberseguridad utilizados en el desarrollo de las capacidades GenAI", no está claro si tienen la experiencia necesaria para hacerlo con eficacia.
Chester Wisniewski, director y CTO field global de Sophos, comenta: "La naturaleza de 'código abierto' de DeepSeek lo abre a la exploración, tanto por adversarios como por entusiastas. Al igual que Llama, se puede jugar con él y eliminar en gran medida las barreras de seguridad. Esto puede dar lugar a abusos por parte de los ciberdelincuentes, aunque es importante señalar que el funcionamiento de DeepSeek sigue requiriendo muchos más recursos de los que dispone el ciberdelincuente medio".
"Sin embargo, lo que supone más presión para las empresas, es que, debido a su rentabilidad, es probable que veamos varios productos y empresas adoptar DeepSeek, lo que potencialmente conlleva riesgos significativos para la privacidad. Al igual que con cualquier otro modelo de IA, será fundamental que las empresas realicen una evaluación de riesgos exhaustiva, que se extienda a cualquier producto y proveedor que pueda incorporar DeepSeek o cualquier LLM futuro. También deben estar seguras de que cuentan con los conocimientos adecuados para tomar una decisión informada", advierte.
En la nueva investigación de Sophos X-Ops, Los ciberdelincuentes aún no se han subido al tren de la IA (todavía), se desvela que se ha producido un ligero pero notable cambio en la forma en que los ciberdelincuentes utilizan la IA. Tras investigar varios foros clandestinos, Sophos X-Ops ha descubierto que, aunque todavía hay escepticismo sobre la IA Generativa, algunos delincuentes la están utilizando para automatizar tareas rutinarias, como la elaboración de correos electrónicos masivos y el análisis de datos. Otros la están incorporando a toolkits de spam e ingeniería social.
"Como con muchas otras cosas en la vida, el mantra debería ser 'confía, pero verifica' en lo que respecta a las herramientas de IA generativa. En realidad, no hemos enseñado a las máquinas a pensar; simplemente les hemos proporcionado el contexto para acelerar el procesamiento de grandes cantidades de datos», explica Chester Wisniewski. "El potencial que tienen estas herramientas para acelerar las cargas de trabajo en seguridad es asombroso, pero sigue siendo necesario el contexto y la comprensión de un supervisor humano para que este beneficio se haga realidad", subraya.
Contando con alguna forma de IA integrada en la infraestructura de ciberseguridad en el 98% de las empresas, los responsables de TI expresan su preocupación por una posible dependencia excesiva de la IA, con el 87% de afirmando que les preocupaba la consecuente falta de responsabilidad en materia de ciberseguridad.
Se observan diferentes prioridades a la hora de utilizar la GenAI en función del tamaño de la empresa. Mientras que las grandes organizaciones (aquellas con más de 1.000 empleados) dan prioridad a la mejora de la protección, las que tienen entre 50 y 99 empleados califican la reducción del burnout como su principal beneficio deseado del uso de las herramientas de IA Generativa. Sin embargo, para complicar las cosas, en todos los tamaños de empresas, el 84% de los responsables encuestados dicen estar preocupados por la presión para reducir el número de profesionales de ciberseguridad debido a expectativas poco realistas sobre las capacidades de la IA para reemplazar a los operadores humanos.
Además, los costes de la IA Generativa son difíciles de cuantificar: el 75% de los directores de TI coinciden en que los costes de GenAI en productos de ciberseguridad son difíciles de cuantificar. Pero las empresas cuentan con ahorrar gracias a la IA Generativa: aunque el 80% de los encargados de TI creen que GenAI aumentará significativamente el coste de las herramientas de ciberseguridad, la mayoría de las organizaciones creen que la IA Generativa ofrece una vía para reducir el gasto total en ciberseguridad, ya que el 87% creen que los ahorros de GenAI compensarán los costes.