La inteligencia artificial que detecta amenazas terroristas

Un coco puede ser para muchos solo una fruta. Para otros, es posible que haga referencia a la mente humana, al ser imaginario con el que se asusta a los niños o al título de una película sobre el Día de los Muertos ambientada en México. Lo cierto es que, dependiendo del contexto en el que se use esta palabra, puede significar mucho más que eso. Este término puede incluso ser una señal de radicalización terrorista. “Coconut [coco, en inglés] en el ámbito yihadista a veces se utiliza para identificar a aquellos musulmanes que siendo tostados por fuera, por dentro son blancos. Es decir que simpatizan con el infiel”, explica José Manuel Gómez, responsable del I+D de Madrid de Expert System.

El análisis de texto le sirve a esta empresa para detectar con inteligencia artificial terminología yihadista, localizar a personas adoctrinadas a través de Internet, descubrir información engañosa y establecer si diferentes cuentas en redes sociales son utilizadas por una misma persona. La tecnología desarrollada por Expert System es utilizada en los proyectos Dante y Trivalent, que están financiados por la Comisión Europea. Universidades, cuerpos policiales y administraciones públicas europeas trabajan en ambas iniciativas con el objetivos de avanzar en la interpretación y comprensión de los comportamientos y los focos relacionados con las amenazas terroristas.

Esta tecnología se utiliza en los proyectos Dante y Trivalent, que están financiados por la Comisión Europea

“Los mensajes de odio en los que se descalifica al infiel son los más típicos y los más fáciles de detectar”, afirma Gómez. Precisamente, el uso del término “infiel” puede ser un indicativo de esta terminología radical. En los textos yihadistas, también suelen estar presentes las armas, explosivos y el Corán: “Es muy curioso porque algo que en principio es solamente un símbolo religioso se utiliza para dar legitimidad a lo que están haciendo”.

La inteligencia artificial desarrollada por Expert System detecta, por un lado, la aparición de terminología yihadista en estos textos y, por otro, hace un análisis más profundo para clasificar los textos en las distintas narrativas que los grupos yihadistas utilizan para radicalizar a sus simpatizantes. A partir de estos datos, los cuerpos policiales son capaces de detectar a personas que pueden estar siendo adoctrinadas en el terrorismo.

“A veces emiten mensajes a través de redes sociales o foros con el propósito de evangelizar sobre la guerra contra el infiel”, cuenta Gómez. Otra narrativa es la de «la supremacía islamista entre grupos”: “Entre Al Qaeda y el Estado Islámico [ISIS, en sus siglas en inglés] hay una gran rivalidad en ese sentido”. La clasificación de textos en las diferentes narrativas sirve para advertir a las fuerzas de seguridad de si deberían prestar atención a un texto determinado o “simplemente se está hablando en términos generales del Corán, la religión o un montón de cosas que son islámicas pero no son yihadistas”.

La compañía también ha diseñado un detector de desinformación que es capaz de identificar el uso de «lenguaje engañoso». El sistema localiza, con un 75% de acierto, si un documento es verdadero o falso. Una de los grandes avances de este detector es que puede analizar información de cualquier dominio, independientemente de que el sistema haya sido entrenado previamente para reconocerlo.

CÓMO DETECTAR CONTENIDO TERRORISTA EN TIEMPO REAL

En el proyecto Dante se analizan tres grandes modalidades de datos: texto, audio y vídeo. Los vídeos en directo son un ejemplo de que es necesario introducir mecanismos de inteligencia artificial que permitan detectar el contenido en tiempo real. “El cuello de botella es precisamente la anotación manual de esos videos. Por ejemplo, tienes que tomar nota y delimitar dentro del frame dónde hay un terrorista, una bandera yihadista, un arma o un caballo. Una vez que tienes ese corpus anotado ya puedes entrenar tu modelo y analizar en tiempo real otros vídeos”, explica Gómez.

La clave estaría, según sostiene, en combinar el análisis de texto, audio y vídeo de forma que cuando se detecte el concepto Kalashnikov en un texto, sea equivalente a la imagen del rifle que aparece en un vídeo, al audio de los disparos y a la entidad representada sobre el kalashnikov en el brazo de conocimiento. “Cuando eres capaz de hacer eso, eres capaz de tener una visión de 360 grados sobre las entidades y el discurso que quieres analizar”, concluye el responsable del I+D de Madrid de Expert System.

Gómez pone como ejemplo las reseñas falsas que se pueden encontrar en páginas web de reservas de hoteles: “Aunque es algo muy difícil de detectar, la forma en la que se expresa el lenguaje es sutilmente distinta a un lenguaje fidedigno”. En el ámbito yihadista, esta herramienta es útil “para identificar casos en los que un autor que presuntamente es yihadista realmente no lo es y está utilizando una plataforma social para mandar un mensaje que no corresponde con su experiencia”. “Esto les sirve a las fuerzas de seguridad para enfocar sus esfuerzos en la gente que realmente es peligrosa”, sostiene el responsable del I+D de Madrid de Expert System.

Para saber si alguien está reclutando a otras personas desde distintos perfiles, la empresa ha desarrollado un analizador de estilometría capaz de descubrir patrones sobre cómo una persona usa el lenguaje en sus comunicaciones. De esta manera, pueden averiguar si varias cuentas en redes sociales pertenecen a una misma persona. Además, este análisis permite predecir “con alta fiabilidad” características de la persona que controla una cuenta en redes sociales como su edad o su género.

Captación en redes sociales

La captación a través de mecanismos online “cada vez es más efectiva”: “Solo hay que ver la cantidad de publicaciones totalmente abiertas y en inglés que tienen estos grupos”. El objetivo de los yihadistas es, según Gómez, “tener acceso a la mayor cantidad de gente a través de los canales más directos posibles”. Por ello, utilizan redes sociales como Twitter o Facebook para difundir su mensaje. “Además, se está detectando cada vez más actividad radicalizante en plataformas de mensajería. No en Whatsapp, porque esa está monitorizada, pero sí en otras como Telegram”, cuenta Gómez.

En diciembre de 2016, Twitter, Facebook, YouTube y Microsoft hicieron pública su unión contra el terrorismo. Según el acuerdo que firmaron, cuando una de las cuatro compañías identifica en sus redes alguna publicación con contenido extremista, la registra en la base de datos que comparte con las demás. De esta forma, las otras pueden usar esa información para localizar y eliminar ese mismo contenido de su plataforma.

Además, la Comisión Europea lanzó en marzo de 2018 un mensaje claro a Facebook, Google, YouTube y el resto de grandes plataformas de Internet: deben borrar este tipo de publicaciones en el plazo de una hora desde que las autoridades policiales o Europol les notifiquen su existencia. Gómez asegura que cada vez hay más control y las cuentas desde las que se hace apología del terrorismo permanecen menos tiempo abiertas.

Si hay indicios claros de que hay radicalización por parte de un determinado individuo, “la policía no tiene mucho problema para conseguir la autorización de estas compañías”. Pero el problema llega cuando las evidencias no están tan claras. “¿A cuánta privacidad estamos dispuestos a renunciar con tal de conseguir un entorno lo más seguro posible? Es un debate complicado en el que tienen que participar las fuerzas de seguridad, las compañías y los ciudadanos”, reflexiona Gómez.

Limitaciones de la inteligencia artificial

Para entrenar la inteligencia artificial, la compañía ha extraído terminología de revistas como Dabiq y Rumiyah, que son públicas y “caracterizan muy bien el mensaje yihadista”. Para la compañía sería ideal tener acceso también a las publicaciones que se retiran de las redes sociales. “Uno de los principales problemas que tenemos es encontrar un corpus lo suficientemente grande de este tipo de mensajes que nos puedan servir para entrenar un sistema de estas características”, sostiene Gómez.

A esto se suma que los sistemas de inteligencia artificial son entrenados con datos que pueden estar condicionados por los prejuicios humanos. Por ello, Gómez defiende que “en dominios tan sensibles como estos” sean las personas las que tomen la decisión final: “La idea es que esta tecnología alivie la carga de trabajo que tiene por ejemplo la policía. Es decir, que les ayude a hacer su trabajo más rápidamente y con menos esfuerzo, pero no que tome decisiones por ellos”.

HTML Snippets Powered By : XYZScripts.com