2012-03-21 25 views
6

He configurado con éxito Eclipse con mi proyecto de Scrapy.Scrapy + Eclipse PyDev: cómo configurar el depurador?

lo hice mediante el establecimiento de una nueva configuración Ejecutar/Depurar:

  • cuyo principal módulo de enlaces a Scrapy/usr/local/bin/scrapy local para mí (que he encontrado sugerencia de utilizar pero cmdline.py que fracasaron en mi equipo (OSX Lion & scrapy instalado a través de easy_install)
  • Definición de los argumentos para enviar "rastreo ny" en mi caso como lo haría si usara la línea de comandos Scrapy
  • Configuración del directorio de trabajo correcto ($ { workspace_loc: My Project/src} en mi caso)

Eclipse puede iniciar mi proyecto con éxito, pero no tengo debbuger. Me faltan los puntos de corte y la inspección variable, ¿alguien sabe cómo configurar el debugugger con este entorno?

Respuesta

0

Bueno, si ya lo está ejecutando correctamente desde dentro de Eclipse, ¿no se trata simplemente de ejecutarlo en modo de depuración?

I.e .: si siguió las instrucciones desde: http://pydev.org/manual_101_run.html (con respecto a la configuración de "Ejecutar siempre la aplicación iniciada previamente"), después de ejecutar su módulo en modo regular, simplemente presione F11 para ejecutarlo en modo de depuración.

+0

El módulo principal personalizado desactiva esta función, creo. Sé cómo usar Eclipse, es el modo de depuración que no funciona. – AsTeR

9
  • Guarde toda la carpeta de proyectos de scrapy en PyDev.
  • Es necesario configurar el módulo principal a Scrapy/cmdline.py
  • Conjunto Arg a crawl ny en su caso

enter image description here

+0

Eso suena bien, lo pruebo lo antes posible – AsTeR

1

Ninguna de las sugerencias anteriores trabajado para mí. Las cosas se ejecutarían, pero no se dispararían puntos de ruptura.

que añade un archivo main.py a mi proyecto local y enganchado en la línea de comandos scrapy así:

import scrapy.cmdline 

def main(): 
    scrapy.cmdline.execute(argv=['scrapy', 'crawl', 'wiki']) 

if __name__ =='__main__': 
    main() 

Esto fácilmente podría ser aún más para pasar el nombre de araña tener diferentes configuraciones de depuración por araña.

0

Así es como he resuelto esto para mi entorno, con el paquete Scrapy en un entorno virtual fuera del directorio del proyecto:

1) Crear un simlink a su cmdline.py desde el interior del proyecto, algo así como:

ln -s ../venv/lib/python3.4/site-packages/scrapy/cmdline.py cmdline.py 

2) Actualice el proyecto para que pueda verlo, luego configúrelo como el módulo principal en la configuración de depuración.

3) En la pestaña "Argumentos" en la configuración de depuración, donde dice "Directorio de trabajo", seleccione Otro y luego ingrese, o navegue a usar los botones, el directorio de Scrapy en su proyecto.

Cuestiones relacionadas