Con la técnica del Web
Scraping no sólo se extrae información de páginas web de forma
automatizada, sino que es posible que los grandes volúmenes de datos Big Data obtenidos se usen en grupos de
discusión para el análisis de diversos temas de interés nacional y mundial como
el problema del agua.
El Centro de Estudios Sociales y de Opinión Pública
presenta el Documento de trabajo número 317. Los futuros tecnológicos de la sostenibilidad: el agua como futuro profesional,
con el fin de contribuir al estudio de temas de relevancia como el medio
ambiente y escasez de agua con posibles alternativas de solución, a través del
aprendizaje de las máquinas, Machine
Learning.
Con el uso de nuevas tecnologías como la Inteligencia
Artificial (AI) es posible medir y analizar detalladamente las actividades
sobre el control, manejo y usufructo del agua, pero al mismo tiempo diseñar
políticas ambientales adecuadas.
Para llevar a cabo un análisis del problema del agua, se
requiere reflexionar respecto al vital líquido como futuro profesional, es
decir, que se debe estudiar el tema más fondo con nuevas y mejores técnicas de
investigación, debido a que se trata de uno los recursos naturales más
importante, que es la base de toda forma de vida y puede ser considerado un recurso renovable
cuando se controla su utilización, tratamiento
y circulación.
De ahí que es propicio dirigir la mirada hacia nuevas
técnicas y metodologías en la producción del conocimiento, con el propósito de
identificar elementos clave sobre la falta de agua y sus repercusiones.
En el caso del Big Data permite procesar datos masivos
provenientes de diversas fuentes, así como encontrar estadísticas precisas en
determinados temas y por ello es conveniente aprovechar estas novedades
tecnológicas para el estudio del problema del agua.
Es necesario destacar que la automatización del
conocimiento o procesos de manejo de grandes cantidades de datos no significa
desplazar una visión de análisis por otra, sino que se requiere trabajar
respecto al “factor humano”, a través de la capacitación y mejoramiento de
competencias de los individuos.
A través de la herramienta tecnológica Web Scraping se
extrae información de sitios web y los datos pueden ser almacenados
sistemáticamente y durante periodos programados en bases para su posterior
tratamiento, selección o clasificación.
Mediante este sistema de información y lenguajes de
programación se enseñan habilidades que desarrollan el pensamiento crítico y
son el soporte esencial para solucionar problemas diversos como el del agua.
Con la innovadora técnica del Web Scraping, los usuarios,
ya sea estudiantes, profesionales o funcionarios no se limitan sólo a registrar
la información que reciben sino con procesos automatizados y con un alto nivel
de selección pueden darle un tratamiento metodológico idóneo que la información
puede ser útil para ser expuesta en grupos de análisis, con toma de decisiones.
El software programado para scrapear se le llama bot,
spider o crawler, incluso se dice que todo el mundo puede programar un crawler, aunque con el uso de un
lenguaje de programación es más conveniente.
La producción del conocimiento bajo nuevos criterios de
inteligencia automatizada, se convierte en un proceso colaborativo y compartido,
lo que permite confrontar todo tipo de información.
Documento completo:
*****
No hay comentarios:
Publicar un comentario