Estudio presenta cómo la IA puede ser infectada por malware

Malware

¿Qué sucedería si un sistema de IA es contaminado con malware? Es una pregunta que en la actualidad no se plantea con la misma naturalidad y frecuencia con la que surge si se piensa en ordenadores u otra clase de sistema común. 

Investigadores de la Universidad de Cornell han descubierto que sí es posible ocultar código malicioso dentro de las redes neuronales de IA, de acuerdo a lo que señalan en un artículo que describe sus experimentos con la inyección de código en estos sistemas.

Así como muchos sistemas informáticos, la inteligencia artificial puede infectarse de virus

Siguiendo los pasos de quienes desarrollan nuevas tecnologías informáticas, los piratas informáticos y cibercriminales complejizan sus técnicas de ataque. El modus operandi y las consecuencias de un caso de infección puede generar desde pequeñas interrupciones y/o filtraciones de información, hasta el secuestro (mediante cifrado) o destrucción de sistemas de archivos completos.

En este nuevo estudio, el equipo ha encontrado una nueva forma de infectar ciertos tipos de sistemas informáticos que ejecutan aplicaciones de inteligencia artificial. Particularmente, en el caso de las redes neuronales, el equipo detectó una vulnerabilidad ante la infiltración de código.

Por su propia naturaleza, estas pueden ser intervenidas por agentes externos. Todo lo que estos terceros tienen que hacer es imitar la estructura de la red al momento de aportar nuevos datos (el código malicioso, en este caso), tal como se agregan recuerdos en el cerebro humano. 

Zhi Wang, Chaoge Liu y Xiang Cui, los investigadores tras el estudio de Cornell, descubrieron que era posible hacer precisamente eso al incrustar malware una la red neuronal. El experimento lo realizaron con un sistema de IA llamado AlexNet, el cual a pesar de ser bastante robusto, pudo ser vulnerado bajo la dinámica antes descrita. Para añadir el código a la red neuronal, los investigadores eligieron lo que creían que sería la mejor capa para la inyección. También hicieron la misma prueba con un modelo que ya había sido entrenado, pero se desestimó en pos de atacar una red no entrenada, reduciendo el impacto en la red general.

Según reportan los investigadores, la infección realizada podría haber pasado desapercibida, en caso de ejecutarse discretamente. El software antivirus no pudo detectar el malware inyectado y el sistema en general, mantuvo un nivel de rendimiento similar.

Por lo menos, el virus de ensayo utilizado en el estudio fue una práctica inocua, pues, aunque fue agregado un código eventualmente malicioso, no repararon en la manera de ejecutarlo efectivamente.

Ahora que se sabe que los sistemas de inteligencia artificial son vulnerables ante potenciales ataques de malware, surge un nuevo escenario de operaciones para las tecnologías antivirus.

Si te ha gustado el contenido Invítanos a un café. ¡Gracias por seguir leyéndonos!
La noticia Estudio presenta cómo la IA puede ser infectada por malware fue publicada originalmente en Wwwhatsnew.com por Nicolás Verdejo.