Primer malware capaz de evadir seguridad de Inteligencia Artificial

¿Cómo se debe avanzar en prácticas de ciberseguridad?

Con el acelerado desarrollo de la inteligencia artificial (IA), las amenazas digitales evolucionan a un ritmo igual de vertiginoso. Esta semana, se reportó el descubrimiento del primer malware diseñado específicamente para evadir los filtros de seguridad de sistemas basados en IA. Un hito preocupante que abre la conversación sobre la urgente necesidad de actualizar nuestras prácticas y políticas de ciberseguridad.

¿Qué es un malware y por qué este caso es distinto?

Un malware (del inglés malicious software) es un tipo de programa malicioso creado para infiltrarse, dañar o tomar el control de sistemas sin el consentimiento del usuario. Virus, gusanos, troyanos, spyware y ransomware son solo algunas de sus formas más conocidas.

Lo que hace único al caso reportado por la empresa tecnológica Check Point, a través de su división Inteligencia de Amenaza, es el uso de una técnica denominada prompt injection. El malware descubierto emplea instrucciones en lenguaje natural para manipular modelos de inteligencia artificial, logrando que estos clasifiquen el archivo malicioso como si fuera completamente seguro.

En torno a esta problemática, le preguntamos a Juan Rodríguez, Gerente de IT de Grupo AV: ¿Qué piensa sobre el riesgo de que un malware pueda influir en la toma de decisiones de una inteligencia artificial?

“Es un riesgo altísimo. Hoy en día, muchas decisiones clave —como filtrar correos, aprobar accesos, identificar amenazas o incluso aplicar ciertas fórmulas— están siendo gestionadas directamente por sistemas basados en inteligencia artificial. Si un malware logra intervenir o manipular ese modelo, como ocurre con ataques del tipo ‘prompt injection’, no solo se vulnera el sistema, sino que se engaña directamente al motor de decisión.

Por poner un ejemplo simple: es como si un guardia de seguridad abriera una puerta convencido de que todo está en orden, cuando en realidad está siendo engañado. Lo preocupante es que muchos de los filtros actuales, incluso algunos considerados de última generación, no están preparados para detectar este tipo de amenazas sofisticadas.”

¿Qué es una “prompt injection”?

La prompt injection es una técnica mediante la cual un atacante engaña a un modelo de lenguaje o sistema de IA, haciéndole ejecutar órdenes o comportarse de formas no previstas. Esto puede incluir desde la generación de contenido falso o desinformativo, hasta la divulgación de datos confidenciales, o incluso la ejecución de acciones que comprometan la integridad del sistema.

Este nuevo tipo de ataque pone en jaque los actuales esquemas de defensa y obliga a revisar tanto los protocolos técnicos como los marcos regulatorios.

¿Qué dice la legislación chilena sobre ciberseguridad?

En Chile, la recientemente promulgada Ley N° 21.663 establece un marco general de ciberseguridad, orientado a la protección de la infraestructura crítica digital del país. Esta normativa se articula en torno a cinco objetivos estratégicos:

Infraestructura resiliente

Construir y mantener sistemas capaces de resistir y recuperarse ante ataques cibernéticos.

Derechos digitales de las personas

Asegurar la protección de los datos personales y la participación plena en entornos digitales.

Cultura de ciberseguridad

Promover la educación digital, la responsabilidad en línea y el uso seguro de la tecnología.

Coordinación nacional e internacional

Establecer alianzas entre instituciones públicas, privadas y organismos internacionales.

Desarrollo de la industria de ciberseguridad

Fomentar el crecimiento de una industria nacional capaz de crear soluciones tecnológicas propias.

También le consultamos al Gerente de IT de Grupo AV: ¿Cómo evalúa la política chilena de ciberseguridad frente a este nuevo tipo de amenazas basadas en inteligencia artificial?

“El principal problema es que la actual legislación fue diseñada antes del auge de la inteligencia artificial, por lo que no contempla amenazas vinculadas a tecnologías como la IA generativa. Hoy enfrentamos ataques que no solo vulneran sistemas, sino que razonan y se adaptan, y lo hacen en un escenario donde no contamos con una protección legal específica para este tipo de riesgos.

Si bien partimos desde una base normativa sólida, es urgente actualizar el marco legal, generar nuevas leyes enfocadas en IA y ciberseguridad, y tomar referentes de países que ya han avanzado en esta materia. Además, debemos establecer auditorías a los modelos de IA y preparar a nuestros equipos humanos para enfrentar este nuevo tipo de amenazas de forma proactiva.”

Recomendaciones clave para fortalecer la ciberseguridad en tu empresa

En un escenario donde las amenazas se vuelven más sofisticadas, toda organización —sin importar su tamaño— debe asumir una postura proactiva. Aquí algunas recomendaciones fundamentales que nos entrega Juan Rodriguez, (cargo):

Finalmente, le pedimos a Juan Rodríguez, Gerente de IT de Grupo AV, que compartiera recomendaciones clave para las empresas que buscan prepararse frente a estas nuevas amenazas digitales impulsadas por inteligencia artificial:

“Lo primero es adoptar un enfoque de Zero Trust, es decir, no se debe permitir ningún acceso —ni siquiera dentro de la propia organización— sin validación previa. Todo debe verificarse constantemente.

En segundo lugar, es fundamental realizar pruebas específicas a los modelos de IA. Ya no basta con testear redes o actualizar antivirus. Hoy se deben simular ataques, como los de tipo prompt injection, para observar cómo se comporta la inteligencia artificial bajo escenarios maliciosos.

Tercero, se debe filtrar y monitorear lo que entra y sale de los modelos de IA. Es importante detectar posibles fugas de información, respuestas manipuladas o comportamientos anómalos.

Como cuarto punto, todo lo anterior debe integrarse en un sistema de monitoreo continuo. La IA puede y debe ser supervisada como cualquier otro sistema crítico, aunque esto exige contar con personal más especializado y procesos de vigilancia constante.

Y finalmente, quizás lo más importante: capacitar a las personas. Un mal prompt hoy puede ser tan riesgoso como un archivo infectado. Por eso es clave educar a todo el equipo, desde el área de TI hasta el usuario final. La seguridad en tiempos de inteligencia artificial ya no es una opción: es una prioridad.”

El caso del primer malware capaz de manipular la IA marca un antes y un después en la historia de la ciberseguridad. Ya no se trata solo de proteger redes o dispositivos, sino de proteger la propia capacidad de decisión de las máquinas. Ante este nuevo desafío, actualizar políticas, invertir en formación y adoptar tecnologías seguras no es una opción, sino una necesidad.

Para asesorías y soluciones a estos problemas de ciberseguridad contactanos en