martes, 21 de enero de 2020

Web Scraping, alternativa para estudio, conocimiento y solución al problema de agua

Resultado de imagen para Web Scraping


Con la técnica del Web Scraping no sólo se extrae información de páginas web de forma automatizada, sino que es posible que los grandes volúmenes de datos Big Data obtenidos se usen en grupos de discusión para el análisis de diversos temas de interés nacional y mundial como el  problema del agua.

El Centro de Estudios Sociales y de Opinión Pública presenta el Documento de trabajo número 317. Los futuros tecnológicos de la sostenibilidad: el agua como futuro profesional, con el fin de contribuir al estudio de temas de relevancia como el medio ambiente y escasez de agua con posibles alternativas de solución, a través del aprendizaje de las máquinas, Machine Learning.

Con el uso de nuevas tecnologías como la Inteligencia Artificial (AI) es posible medir y analizar detalladamente las actividades sobre el control, manejo y usufructo del agua, pero al mismo tiempo diseñar políticas ambientales adecuadas.

Para llevar a cabo un análisis del problema del agua, se requiere reflexionar respecto al vital líquido como futuro profesional, es decir, que se debe estudiar el tema más fondo con nuevas y mejores técnicas de investigación, debido a que se trata de uno los recursos naturales más importante, que es la base de toda forma de vida y  puede ser considerado un recurso renovable cuando se controla su  utilización, tratamiento y circulación.

De ahí que es propicio dirigir la mirada hacia nuevas técnicas y metodologías en la producción del conocimiento, con el propósito de identificar elementos clave sobre la falta de agua y sus repercusiones.

En el caso del Big Data permite procesar datos masivos provenientes de diversas fuentes, así como encontrar estadísticas precisas en determinados temas y por ello es conveniente aprovechar estas novedades tecnológicas para el estudio del problema del agua.

Es necesario destacar que la automatización del conocimiento o procesos de manejo de grandes cantidades de datos no significa desplazar una visión de análisis por otra, sino que se requiere trabajar respecto al “factor humano”, a través de la capacitación y mejoramiento de competencias de los individuos.

A través de la herramienta tecnológica Web Scraping se extrae información de sitios web y los datos pueden ser almacenados sistemáticamente y durante periodos programados en bases para su posterior tratamiento, selección o clasificación.

Mediante este sistema de información y lenguajes de programación se enseñan habilidades que desarrollan el pensamiento crítico y son el soporte esencial para solucionar problemas diversos como el del agua.

Con la innovadora técnica del Web Scraping, los usuarios, ya sea estudiantes, profesionales o funcionarios no se limitan sólo a registrar la información que reciben sino con procesos automatizados y con un alto nivel de selección pueden darle un tratamiento metodológico idóneo que la información puede ser útil para ser expuesta en grupos de análisis, con toma de decisiones.

El software programado para scrapear se le llama bot, spider o crawler, incluso se dice que todo el mundo puede programar un crawler, aunque con el uso de un lenguaje de programación es más conveniente.

La producción del conocimiento bajo nuevos criterios de inteligencia automatizada, se convierte en un proceso colaborativo y compartido, lo que permite confrontar todo tipo de información.

Documento completo:


*****





No hay comentarios: