Lucentia LAB ha participado en el evento promovido por el Colegio Oficial de Ingenieros Industriales de la Comunidad Valenciana y la Agencia Valenciana de la Innovación. Una sesión de debate organizada por Valencia Plaza.

Santiago Colomo, Responsable de desarrollo de negocio de Inteligencia Artificial en Lucentia Lab ha compartido la experiencia de la empresa en la implantación de modelos de analítica avanzada en Smart Cities. Tras el evento Santiago ha compartido sus reflexiones sobre la participación en la jornada que reproducimos a continuación.


Como suele ocurrir una cuando se juntan profesionales de diferente especialización, resultó especialmente interesante el debate surgido en la sesión de debate organizada en el ámbito del proyecto por Valencia Plaza y en el que se expusieron reflexiones muy interesantes. Es habitual que las restricciones de tiempo dejen en el tintero algunas igualmente interesantes y que me gustaría compartir.

Por una parte se habló de las mejoras cuantitativas de la implantación de tecnología en las ciudades. Todos nos vamos a los números grandes que esto genera, pero antes de la cuantificación creemos que la tecnología aporta desde sus primeros estadios de adopción la posibilidad precisamente de medir todos estos valores, y además estas mediciones pueden adquirir dimensiones adaptadas a la resolución de problemáticas más allá de la mera medición y abundando en varios aspectos: la necesidad de precisión, la validez de la medición, y la presentación del dato en función de quien lo va a consumir.

El primer beneficio de la implantación de tecnología es poder medir y cuantificar el éxito de las actuaciones.

Quizá se pueda ilustrar con un par de ejemplos. Muchas veces hemos visto actuaciones en el plano de la mejora de las ciudades que son etiquetados bajo el emblema de ciudad inteligente y que no son necesariamente de naturaleza tecnológica, de hecho muchas veces se obvia la aplicación tecnológica porque estas actuaciones recaen en áreas mas o menos alejadas del ámbito de IT (la necesidad de creación de equipos multidisciplinares ha sido una constante en las exposiciones del proyecto, pero es una realidad que no se producen en muchos casos). Imaginemos una gran obra de reordenación de espacios cómo puede ser la peatonalización de zonas comerciales, plazas u otros espacios públicos en la ciudad. Normalmente las obras tienen un coste cuantitativo elevado, se realizan y se espera simplemente que funcione. ¿Pero tiene esto sentido si no analizamos cómo afecta a los flujos de personas?¿cuántos casos conocemos de zonas peatonlizadas y luego vueltas a abrir al tráfico porque han supuesto un empeoramiento de estos flujos y un impacto negativo en el comercio?.

En este ejemplo, la aplicación de sensorización o la mera adquisición de datos de movilidad puede proporcionar una visión real y documentada de impacto de la actuación, con costes en tecnología que apenas supondrían un peso del 5% en el total del proyecto. La rentabilidad parece clara una vez tenemos el dato, saber si la actuación “funciona” e incluso obtener información vital para la toma de decisiones (ampliaciones, reordenación del tráfico, creación de zonas de estacionamiento, impacto en comercio…). 

Sobre la mediciones también hay que matizar algunos aspectos que parecen diluidos en la gran potencia de las soluciones que existen en el mercado. Si cambiamos el tercio y nos vamos a otro asunto de gran importancia en las ciudades como es el tráfico podemos ilustrar de manera nítida algunas desviaciones en los objetivos que se están produciendo. Imaginemos un sistema de detección de accidentes con un grado de automatización avanzado. Existe tecnología sobrada para poder detectar el accidente pero habría que tener en cuenta algunos parámetros más allá de la mera detección y que tienen que ver con el uso que se le va a dar a estos positivos. Así si queremos, de algún modo “automatizar” la tramitación del siniestro, necesitaremos una gran precisión del dato: ubicación, trayectoria, sellos de tiempo, matrículas, velocidad de los vehículos, detección de personas, etc. Pero además estos datos tienen que tener una naturaleza incontestable e inmodificable (ojo que aquí Block Chain puede ser la piedra filosofal para resolver estos problemas de validez). Imaginemos ahora otra problemática mucho más común, la monitorización del trafico en una avenida. En este caso las mediciones pueden ser mucho más laxas y centrarse en el objetivo (que entendemos sería evitar atascos), así no necesito saber ni almacenar las matriculas de todos los vehículos que circulan, seguramente tampoco el numero exacto de vehículos, se podría implementar un sistema basado en umbrales, en los que tendríamos estimaciones de pocos vehículos, muchos o demasiados. Pero además una vez obtenidos estos datos tan genéricos podríamos inferir soluciones mucho más complejas partiendo de un análisis de tendencias que nos permitirían saber si siendo pocos tendemos a demasiados y por lo tanto pudiendo actuar con regulación semaforica o presencia de agentes de movilidad, hasta detectar eventos de tráficos producidas por circunstancias no habituales (lluvia, espectáculos, accidente) con antelación a que se llegase al punto de saturación de la vía.

Por último gran parte de estas mediciones serían factibles con sensores ya existentes. Hay una preocupante tendencia a sensorizar de manera especifica cada dato y muchas veces un sensor de ruido (por ejemplo) ya podría arrojar datos suficientemente precisos sobre la cantidad de tráfico de una vía utilizando IA para la síntesis de ondas discriminando y cuantificando los vehículos que son fuente de la onda.

En definitiva, creemos que un correcto diseño de las fuentes de datos, la precisión necesaria de los mismos (que no siempre es la máxima) y un análisis y correlación correcto de los mismos pueden ayudar a desplegar sistemas de Smart Cities de una manera sostenible, rentable y medible para las ciudades.

Share via
Copy link
Powered by Social Snap