Eulalia Planas, experta en riesgos de la UPC

“Los algoritmos de las IA antiincendios serán tan buenos como los hayas entrenado”

Esta ingeniera de la Universitat Politècnica de Catalunya investiga cómo se puede utilizar la inteligencia artificial en la vigilancia antiincendios. Su equipo pretende crear tecnologías capaces de adaptarse a la naturaleza compleja y variable de los accidentes, y ayudar a los equipos de gestión de emergencias.

Eulalia Planas
Eulalia Planas, ingeniera experta en riesgos de la UPC. / Imagen cedida por la investigadora

En 2024 se quemaron en España más de 47 700 hectáreas de bosque y hubo 16 grandes incendios. Aunque parezca mucho, fue un año relativamente bueno. La media anual de la última década es de casi 104 000 hectáreas quemadas al año.

Las herramientas para abordar esta situación son numerosas, y en la actualidad además incluyen inteligencia artificial. Eulalia Planas es ingeniera en la Universitat Politècnica de Catalunya, donde investiga en el campo del riesgo y la seguridad. Desde el año pasado trabaja en un proyecto que utiliza IA para mejorar la gestión de incendios forestales y otras emergencias.  

Al final, la inteligencia artificial es un modelo estadístico que saca patrones, algo que viene muy bien en el campo del análisis de riesgo

Aunque las medidas tradicionales son eficaces, se quedan cortas en condiciones que evolucionan muy rápidamente. Con este proyecto, el equipo de Planas pretende integrar la IA con sistemas de big data para crear tecnologías capaces de adaptarse a la naturaleza compleja y variable de los accidentes, y ayudar a los equipos de gestión de emergencias.

Aun así, Planas subraya que la inteligencia artificial no será la solución definitiva, e indica que será importante identificar cuándo es una herramienta realmente útil para los bomberos o una mera novedad con un nombre atractivo.  

¿Por qué puede ser útil la inteligencia artificial en el campo de los incendios?

La inteligencia artificial no son más que herramientas matemáticas que se utilizan para relacionar cosas, diciéndolo de forma muy simplificada. Es un modelo estadístico que coge un montón de datos e intenta sacar patrones, algo que nos viene muy bien en el campo del análisis de riesgo. Pero hay que entrenarlo adecuadamente. Por ejemplo, en el caso de ChatGPT, que se basa en el lenguaje, lo entrenas con frases y luego él las construye.

¿Y cómo se puede usar esta tecnología en los incendios?

Es un campo amplio, pero un caso muy clásico de uso de herramientas de IA es en el análisis de imágenes de satélite, aéreas, obtenidas con drones… Por ejemplo, el proyecto Wildfire Global Information System, gestionado por la Comisión Europea, se basa en el sistema EFFIS, que detecta incendios y monitorizan su progresión a partir de imágenes de satélite.

Para ser capaces de hacer esto, se han utilizado herramientas de inteligencia artificial para identificar patrones dentro de imágenes y distinguir qué es incendio y qué no lo es.

¿Eso cómo se logra?

Hay que entrenar el modelo para que identifique dentro de la imagen dónde hay un incendio. Para hacer esto, primero se recogen muchas imágenes, miles de ellas. Luego, manualmente, se va indicando cuáles corresponden a un incendio y cuáles no. 

Por ejemplo, en mi equipo entrenamos un modelo para detectar penachos de humo, y así saber que se está produciendo un incendio. Cogimos miles de imágenes, tanto de incendios reales como otras que no mostraban nada, para que los distinguiese. También tiene que ser en condiciones distintas: con el cielo nublado, con sol, con humos más negros o más claros… Cuanta más variedad mejor. Y, normalmente, marcamos el contorno real de la imagen donde está el incendio de forma manual.

Sea como sea, el error humano sigue estando en la inteligencia artificial

Al hacerse de forma manual, puede haber errores, ¿no?

Claro, los humanos nos equivocamos. Aquí ya existe siempre un error. Por eso, un algoritmo será tan bueno como lo hayas entrenado. Si no le doy imágenes buenas o las he marcado mal, el algoritmo no puede hacerlo bien. Sea como sea, el error humano sigue estando en la inteligencia artificial.

¿Cómo se verifica que hay poco error?

De nuestra colección de imágenes con las que hemos entrenado el modelo, nos guardamos algunas que no las utilizamos para entrenar, sino para verificar que funciona al final del proceso. Si funciona con estas otras imágenes, sabrás cómo de preciso es tu modelo.

Luego ya entra en juego la habilidad de los investigadores en cambiar parámetros del algoritmo para ajustar y que cada vez lo haga mejor, hasta conseguir la máxima precisión posible.  

Ósea, cuanto más específicas sean las imágenes con las que entrenas al algoritmo, mejor funcionará.

Exacto, pero menos extrapolable será. No lo podrás utilizar para otras cosas que no sea exactamente esa aplicación para que lo has entrenado. Imagínate que yo he entrenado lo que te decía de los penachos de humo y lo quiero usar para detectar chimeneas de fábricas. Esto se parece, pero como no es lo mismo, y seguramente no lo hará tan bien.

Aquí es donde hay que trabajar si quieres algo preciso o que funcione para situaciones más amplias.

Se están desarrollando muchas cosas con inteligencia artificial, pero es fundamental que distingamos cuándo realmente aporta una ventaja y cuándo no

En tu trabajo también te enfocas en el uso de IA para otro tipo de emergencias, como en los accidentes en la industria química.

Sí, para gestionar estos accidentes ya hay herramientas informáticas que, por ejemplo, en caso de una fuga de una sustancia tóxica ayudan a predecir cómo va a evolucionar la nube del compuesto o cuál es la distancia de seguridad a la que se deben poner los equipos de emergencias.

Pero muchas veces, en estos accidentes no se dispone de toda la información para arrancar el modelo o no hay tiempo para hacerlo. Por eso, lo que hicimos en mi equipo es realizar muchísimas simulaciones con muchas sustancias distintas y en diversas condiciones meteorológicas. Con esto hemos entrenado el modelo y ahora te permite predecir rápidamente una distancia de seguridad.

Esta puede no ser tan buena como la que hacen los modelos clásicos, pero es una herramienta informática que ayude a los bomberos en casos de tener pocos datos o poco tiempo.

¿Cuál es el futuro de la inteligencia artificial en la reducción de riesgos?

Lo que debemos tener muy claro es que la IA nunca te va a dar cosas mejores de lo que lo estás entrenando. Tendemos a pensar que nos va a solucionar muchísimas cosas. Pero, insisto, los algoritmos son tan buenos como los hayamos enseñado, y si no lo hacemos bien o no tenemos suficientes datos, tienen su margen de error, que puede ser muy grande a veces.

Ya hay algunas de estas herramientas implementadas dentro del sistema, aunque otras tardarán un poco más en llegar. Se están desarrollando muchas cosas, pero es fundamental que distingamos cuándo realmente aporta una ventaja y cuándo no.

Fuente:
SINC
Derechos: Creative Commons
Artículos relacionados