Quiero descargar algunas páginas HTML de http://abc.com/view_page.aspx?ID= La identificación es de una matriz de números diferentes.Filtrado inteligente de pantalla utilizando diferentes proxies y agentes de usuario al azar?
Me interesaría visitar varias instancias de esta URL y guardar el archivo como [ID] .HTML usando diferentes IP/puertos proxy.
Quiero utilizar diferentes agentes de usuario y quiero aleatorizar los tiempos de espera antes de cada descarga.
¿Cuál es la mejor manera de hacerlo? urllib2? pycURL? ¿rizo? ¿Qué prefieres para la tarea que tienes entre manos?
Por favor, asesorar. ¡Gracias chicos!
¿Por qué quieres aleatorizar a los agentes de usuario? –
No quiero revelar que soy yo el que está descargando la página. Para aumentarlo, si usamos diferentes navegadores al azar, eso solidificará mi anonimato, ¿qué dices? – ThinkCode