Cómo el ‘big data’ puede salvar vidas en el terremoto de México

Un fuerte terremoto de magnitud 7,1 ha sacudido este martes la capital de México provocando más de 200 víctimas mortales. La cifra se prevé que aumente ya que las autoridades consideran que las probabilidades de encontrar más víctimas entre los escombros de los 45 edificios destruidos son muy altas.

En la compleja situación que se origina en las horas posteriores a una catástrofe de estas características, el big data podría ser la clave para salvar vidas.

La cantidad de datos que se producen durante los minutos posteriores a un terremoto es infinita; desde llamadas de emergencia a las autoridades locales, llamadas personales a familiares, y ahora, la información de las redes sociales, concretamente Twitter, que actúa como una de las fuentes de información y de actualidad más veloces.

Las primeras alertas en forma de hashtags
La explotación de los datos que se producen en Twitter durante las horas posteriores a la catástrofe marcan un hito en la forma en cómo se afronta un hecho de esta magnitud. Y es que a nivel tecnológico ya somos capaces de gestionar todos estos datos en tiempo real y poder tomar decisiones en base al conocimiento de esta información, de forma rápida y efectiva.

La cantidad de datos que se producen durante los minutos posteriores a un terremoto es infinita; desde llamadas de emergencia a las autoridades locales, llamadas personales a familiares, y ahora, la información de las redes sociales, concretamente Twitter, que actúa como una de las fuentes de información y de actualidad más veloces.

Las primeras alertas en forma de hashtags
La explotación de los datos que se producen en Twitter durante las horas posteriores a la catástrofe marcan un hito en la forma en cómo se afronta un hecho de esta magnitud. Y es que a nivel tecnológico ya somos capaces de gestionar todos estos datos en tiempo real y poder tomar decisiones en base al conocimiento de esta información, de forma rápida y efectiva.

El objetivo de desarrollar modelos analíticos a partir de algoritmos es categorizar los mensajes de Twitter en, por ejemplo, peticiones de ayuda, reporte de incidencias o casos donde se expresa una necesidad explícita.

El formato de explotación de toda esta información consiste en una visión geoespacial con la categorización de los tuits incorporando variables de prioridad (para resolver los problemas más acuciantes), que permita al usuario clave de un centro de mando, ver cuándo y dónde están enviando el tuit solicitando u ofreciendo ayuda y de esta forma gestionar de forma eficiente los recursos del que dispone el Estado o la Administración Local en cuestión

En el caso concreto de México, hemos detectado que entre los principales hashtags se encuentra #AyudaCDMX, donde muchas personas están difundiendo información pero que no llega a tener la visibilidad y el impacto que requiere, en una situación donde cada minuto es crítico.

Esta propuesta toma en cuenta las últimas novedades en el campo de la inteligencia artificial aplicada al procesamiento del lenguaje natural, con un claro enfoque humanitario donde lo que importa es hacer de la gestión de la información, un canal de ayuda para todos los afectados.

 

 

 

Con Información ; ELPaís

About Poder Ciudadano Radio

Deja un comentario

Login