La seguridad cibernética es un campo que nunca duerme. En este escenario, Google ha decidido incorporar inteligencia artificial generativa para hacer más eficiente y efectiva la labor de los equipos de seguridad. Pero, ¿qué significa esto para las empresas y los profesionales del sector?
El Contexto: Google Cloud Next y la Adquisición de Mandiant
Google no es nuevo en el ámbito de la seguridad cibernética. En el evento Google Cloud Next, la empresa anunció varias mejoras en su línea de productos de seguridad. Uno de los movimientos más significativos fue la adquisición de Mandiant el año pasado por 5.400 millones de euros, una compra estratégica que ha proporcionado a Google una gran cantidad de datos valiosos sobre amenazas de seguridad.
Duet AI: Un Nuevo Asistente para la Seguridad
Mandiant Threat Intelligence
Mandiant Threat Intelligence es una herramienta adquirida por Google que se especializa en proporcionar información detallada sobre amenazas cibernéticas. Su objetivo es ofrecer a las empresas y a los equipos de seguridad datos valiosos que les permitan defenderse de manera más efectiva contra posibles ataques. La herramienta recopila, analiza y clasifica datos de múltiples fuentes para ofrecer un panorama completo de las amenazas emergentes y existentes.
La incorporación de Duet AI en Mandiant Threat Intelligence busca hacer que esta gran cantidad de datos sea más manejable y accesible. Duet AI utiliza algoritmos de inteligencia artificial generativa para analizar la información y generar resúmenes relevantes que ayuden a los profesionales a entender rápidamente la naturaleza de una amenaza específica.
Imaginemos que una empresa se enfrenta a un aumento en los intentos de phishing. En lugar de tener que revisar manualmente miles de registros y alertas, Duet AI podría generar un resumen que destaque las características comunes de estos intentos, como direcciones IP sospechosas o patrones de correo electrónico.
Otro ejemplo podría ser la detección de un malware avanzado que se propaga a través de dispositivos USB. Duet AI podría analizar los datos recopilados y ofrecer un resumen que incluya el método de propagación, los sistemas operativos afectados y las posibles contramedidas.
La principal ventaja de esta integración es la eficiencia. Los equipos de seguridad pueden obtener información clave en un formato más digerible, lo que les permite tomar decisiones más rápidas y fundamentadas. Sin embargo, la efectividad de Duet AI dependerá de la calidad del resumen generado. Si el resumen es demasiado vago o inexacto, podría llevar a decisiones erróneas.
Chronicle Security Operations
Dentro del conjunto de herramientas que Google ha presentado, Chronicle Security Operations merece una atención especial. Esta plataforma, potenciada por Duet AI, se presenta como un recurso valioso para los equipos de seguridad que buscan respuestas más profundas a preguntas complejas sobre amenazas cibernéticas.
Imaginemos un escenario en el que una empresa detecta un aumento inusual en el tráfico de red. En lugar de tener que bucear en registros y datos crudos, el equipo de seguridad podría simplemente preguntar: «¿Este aumento de tráfico representa una amenaza para nuestra organización?». Duet AI en Chronicle Security Operations analizaría los datos disponibles y proporcionaría un resumen conciso de la situación, identificando si el tráfico es benigno o si se trata de un posible ataque DDoS, por ejemplo.
Una de las ventajas de Chronicle Security Operations es que no requiere que el usuario tenga un conocimiento profundo del lenguaje técnico o de consulta. Puedes hacer preguntas en un lenguaje natural y aún así recibir respuestas detalladas. Por ejemplo, en lugar de escribir una consulta técnica como «SELECT * FROM logs WHERE traffic > 1000«, podrías simplemente preguntar: «¿Hay algo inusual en nuestros registros de tráfico?«.
Chronicle Security Operations no funciona en un vacío; se integra con otras herramientas de seguridad para proporcionar un enfoque más holístico. Si, por ejemplo, se detecta una amenaza, la plataforma podría sugerir acciones proactivas que se podrían tomar utilizando otros productos de Google, como el Security Command Center.
Si bien la herramienta promete simplificar la vida de los analistas de seguridad, también enfrenta el desafío de las «alucinaciones» generadas por IA, donde el modelo podría ofrecer información incorrecta si no tiene suficientes datos para fundamentar una respuesta. Sin embargo, Google está tomando medidas para mitigar este riesgo.
Security Command Center
El Security Command Center es otra de las herramientas que se beneficiará de la incorporación de Duet AI. Este centro de operaciones está diseñado para ofrecer un análisis exhaustivo de los hallazgos de seguridad, posibles rutas de ataque y acciones proactivas que se podrían tomar. Pero, ¿cómo funciona esto en la práctica?
Supongamos que una empresa detecta un acceso no autorizado en su red. En lugar de tener que revisar manualmente registros y logs, Duet AI en Security Command Center podría generar un informe detallado que identifica el origen del acceso, los archivos o sistemas comprometidos y el nivel de riesgo asociado.
Si se detecta una vulnerabilidad en un sistema, la herramienta podría trazar posibles rutas de ataque que un ciberdelincuente podría seguir. Esto permite a los equipos de seguridad anticiparse y cerrar esas vías antes de que sean explotadas.
Duet AI no solo reacciona ante amenazas, sino que también sugiere acciones proactivas. Por ejemplo, si se detecta un patrón de tráfico inusual que podría indicar un intento de ataque de fuerza bruta, la herramienta podría sugerir medidas como el endurecimiento de políticas de contraseñas o la implementación de un sistema de autenticación de dos factores.
La utilidad de Duet AI en Security Command Center radica en su capacidad para hacer que los análisis de seguridad sean más accesibles, especialmente para analistas con menos experiencia. Sin embargo, como con cualquier herramienta basada en IA, la eficacia de estas funciones dependerá en última instancia de la calidad de los datos y algoritmos que las alimentan.
Los Desafíos: El Problema de las «Alucinaciones»
No todo es perfecto en el mundo de la IA. Los modelos generativos pueden producir información incorrecta o «alucinaciones» cuando no tienen una respuesta clara. Google está trabajando para mitigar este problema limitando el conjunto de datos a fuentes autorizadas.
La incorporación de IA generativa en las herramientas de seguridad de Google podría marcar un antes y un después en cómo los equipos de seguridad abordan las amenazas. Sin embargo, el éxito de estas herramientas dependerá en gran medida de la calidad de los resúmenes y recomendaciones generadas.
Más información en cloud.withgoogle.com/next