En el mundo, los países en desarrollo poseen pocos datos sobre pobreza; la recolección de información por encuestas es una tarea costosa, larga y en ocasiones peligrosa. Para remediar a los vacíos de información, investigadores de la Universidad de Stanford desarrollaron un método barato y preciso que utiliza únicamente imágenes satélites de uso público para cartografiar, esto es mapear, ubicar y predecir la pobreza.
Pero, ¿cómo se puede detectar la pobreza detrás de una computadora?
Las imágenes satelitales nos brindan una impresionante abundancia de datos: las características de los paisajes pueden ser, en muchos casos, asociadas con la actividad económica. Así, zonas iluminadas, deforestadas o cultivadas, autopistas y fuentes de agua nos dan una idea del grado de pobreza o riqueza de una región. El gran problema es que estos datos no están estructurados y extraer la información relevante no es fácil.
El equipo de investigadores desarrolló un algoritmo –-pasos para llevar a cabo un programa computacional–- de aprendizaje profundo llamado red neuronal convolucional, es decir una red de neuronas artificiales que a medida que registran las imágenes satelitales, “aprenden” de ellas y obtienen la información relevante para detectar signos de pobreza. Así, al analizar millones de imágenes satelitales de cinco países de África –-Nigeria, Tanzania, Uganda, Malawi y Ruanda– el sistema logró identificar cuáles son los signos visuales característicos de la pobreza. Con este acervo de información, se construyó un algoritmo que se aplicó a imágenes satelitales nocturnas de la Administración Nacional Oceánica y Atmosférica (NOAA) para deducir según la ausencia o presencia de luz, la pobreza o riqueza de una región.
Las imágenes nocturnas tienen la particularidad de decirnos si la población es rica o pobre pero no posibilitan un análisis más fino. Por ejemplo, no permiten saber qué tan pobre es la región, si existe un subdesarrollo económico ligero o si es una pobreza absoluta con personas que viven con menos de 1.9 dólares al día –menos de 40 pesos–-. Ahí es donde intervienen las imágenes diurnas de Google Maps, que permiten encontrar sutiles diferencias visuales entre los diversos tipos de pobreza. Por ejemplo, la distancia a la fuente de agua más cercana o al mercado urbano, la superficie de los campos agrícolas y la distancia a las ciudades, el tamaño de las casas y el estado de las autopistas o de las vías sin pavimentar.
El resultado del análisis es una multitud de cartas de una precisión absoluta. Una experiencia que sería sumamente útil en países como México, que cuentan con muchas poblaciones en pobreza extrema.
Esta revolución de la información también deja entrever nuevas posibilidades: la de predecir el potencial desarrollo de una zona de pobreza y por lo tanto dar las herramientas necesarias para salir de esta vulnerabilidad.
¿Será que ya sólo se requiere de una verdadera voluntad política para desvanecer la brecha entre pobres y ricos?
Sigue a Andrea en twitter: @andreabizberg
Fuente:
Combining satellite imagery and machine learning to predict poverty
Neal Jean, Marshall Burke, Michael Xie, W. Matthew Davis, David
B. Lobell and Stefano Ermon (August 18, 2016)
Science 353 (6301), 790-794. [doi: 10.1126/science.aaf7894]