Seleccionar página

A lo largo de estos meses se ha popularizado enormemente el uso de ChatGPT, uno de los últimos desarrollos de inteligencia generativa que se han puesto a disposición del público en general, motivando gran curiosidad y debate. Se trata de una forma de aprendizaje automática, basada en modelos de lenguaje, capaz de generar contenido nuevo en cualquier formato (texto, imagen, video, voz, código). Pero este tipo de avances no son nuevos. Hace unas semanas, Microsoft presentó su propuesta de Bing con IA (Inteligencia Artificial), cuya potencialidad, de hecho, es mucho mayor que la de ChatGPT; y, en breve, se espera el lanzamiento de Bard, la solución de Google. Junto a ellas, están proliferando multitud de propuestas que no se limitan a ofrecer resultados textuales basados en modelos de lenguaje, sino a la generación y combinación de cualquier tipo de contenido. 

Teniendo en cuenta el rápido avance de estas tendencias, Prosegur Research, el Insight&trends center de Prosegur, ha analizado las implicaciones de ChatGPT desde la perspectiva de la seguridad, y ha identificado los principales riesgos y oportunidades que se abren con su aplicación a diferentes ámbitos. 

Los principales diez riesgos para la seguridad que se derivan de ChatGPT, según el análisis de Prosegur Research, son los siguientes: 

Polarización social: las IA generativas, dada su capacidad de producir contenidos multimedia, pueden ser utilizadas para difundir mensajes de odio o discriminación, así como mensajes de carácter radical o extremista.  

Phishing: generación automatizada de correos de apariencia real con objeto de engañar a usuarios a efectos de acceder a información confidencial o a los sistemas informáticos.  Hay que tener en cuenta que las IA generativas redactan con gran calidad, lo que invalida las sospechas que sí puede despertar un phishing con baja calidad. 

Desinformación: a través de la generación de noticias falsas, se trata de influir en la opinión pública, dañar la cohesión social o afectar a procesos electorales. La desinformación es una clara cuestión que afecta a la seguridad nacional, dañando la cohesión social y los principios democráticos. 

Doxing: la desinformación también es susceptible de afectar a empresas y organizaciones, con la difusión de bulos, informaciones sesgadas, la creación de falsos perfiles laborales, o la manipulación de documentos para dañar la credibilidad de las organizaciones. Su finalidad puede ir desde la parodia hasta el ataque a la reputación o la influencia en los mercados.  

Fuga de información y robo de datos: empresas como Amazon o Google han alertado a sus empleados sobre los riesgos de compartir información sobre la empresa en ChatGPT y aplicaciones similares, que posteriormente pudiera ser desvelada en las respuestas que ofrece a usuarios. 

Fraudes y estafas: son tipologías delictivas que están creciendo con durante estos últimos años. Los fraudes tradicionales, existentes en todos los sectores económicos, son potenciados por el uso de internet, redes sociales y nuevas tecnologías. Las IA generativas pueden contribuir a diseñar fraudes con mucha más calidad, así como a perfilar objetivos. 

Generación de chatbots maliciosos con objetivos delictivos: pueden interactuar con individuos para la obtención de información sensible o fines ilícitos económicos.  

Suplantaciones de identidad: mediante la utilización de las denominadas “deep fakes” y la capacidad de la IA para generar textos imágenes, videos e, incluso, simular la voz. Con el apoyo de la creación de avatares que integren todos estos elementos, se aumenta la verosimilitud de la identidad. 

Generación de código malicioso, como virus, troyanos, malware, ransomware, spyware: el objetivo es cometer ciberdelitos de diferente naturaleza. 

Lucha de poder geopolítico y geoeconómico: en un contexto de poderes difusos y fragmentados, el liderazgo ya no sólo se mide por la capacidad económica, la diplomática o la militar. Ya en el año 2017, Vladimir Putin señaló que quien dominara la IA dominaría el mundo. La geopolítica y la geoeconomía presentan nuevos riesgos, pero también oportunidades para estados y empresas que sean capaces de leer el futuro. Los datos, junto a las tecnologías, están en el centro de configuración del poder, lo que genera una asimetría entre quienes disponen de ellos y quienes no. 

Sin embargo, la tecnología, como gran factor de cambio de nuestras sociedades, generalmente no nace orientada hacia un uso malicioso. Por este motivo, Prosegur Research también ha querido analizar aquellas oportunidades que ChatGPT puede generar en el campo de la seguridad, entre las que destacan las siguientes. 

Automatización de tareas rutinarias en funciones de seguridad: podría potenciar las competencias más humanas y facilitar el bienestar de los empleados, al eliminar tareas repetitivas y tediosas. 

Generación de chatbots atractivos: con un perfil más amable y humano, para mejorar la interacción con clientes y con otras personas. 

Acceso a ingentes cantidades de información de interés para la seguridad, de una manera estructurada por el uso del lenguaje natural: En este caso, se potencian las capacidades de inteligencia de fuentes abiertas (OSINT), siendo siempre conscientes de la criticidad de evaluar la fiabilidad de las fuentes y la credibilidad de la información.  

En análisis de riesgos: puede apoyar la detección y catalogación de riesgos para las organizaciones. 

Reconocimiento de patrones, dentro del amplio conjunto de datos e información que estas aplicaciones manejan: el valor no estaría únicamente en el patrón, sino en la anomalía, es decir, aquello que se sale de lo habitual y puede contribuir a generar una señal débil o una alerta temprana. 

En análisis de inteligencia puede contribuir a la generación de hipótesis, la identificación de tendencias y la construcción de escenarios en seguridad: aunque la IA no puede sustituir la creatividad humana sí puede resultar un complemento interesante para pensar fuera de la caja. 

Estructuración de recomendaciones en cuestiones de seguridad: desde cómo defenderse de un ciberataque hasta qué medidas de seguridad adoptar previamente o durante un viaje. No sustituye de ninguna manera la labor de un analista de seguridad internacional, pero apoya algunas tareas. 

Analítica predictiva: puede facilitar ciertas predicciones, con sus probabilidades asociadas, en base a la ingente cantidad de datos en que se basa. 

En ciberseguridad puede apoyar la detección de phishing, probar y testar código, identificar vulnerabilidades, generar contraseñas seguras, o simular conversaciones con actores adversarios, o incluso con potenciales objetivos, para poder anticipar sus acciones. 

Aprendizaje: las IA generativas pueden ser un primer punto para el aprendizaje sobre cuestiones vinculada a seguridad, sobre tecnologías, sobre riesgos. Especialmente serán de interés en la medida en que faciliten fuentes y estas sean cada vez más refinadas. 

La entrada ChatGPT, diez riesgos y diez oportunidades para la seguridad  se publicó primero en CyberSecurity News.