¿Pueden las personas indicarme los recursos en lexing, análisis y tokenización con Python?Recursos para lexing, tokenising y análisis en python
estoy haciendo un poco de piratería en un proyecto de código abierto (hotwire) y quería hacer algunos cambios al código que lexes, parses and tokenises los comandos entraron en ella. Como es un código de trabajo real, es bastante complejo y un poco difícil de resolver.
No he trabajado en código para lex/parse/tokenise antes, así que pensé que un enfoque sería trabajar a través de un tutorial o dos en este aspecto. Espero aprender lo suficiente para navegar por el código que realmente quiero modificar. ¿Hay algo adecuado por ahí? (Lo ideal sería hacerlo en una tarde sin tener que comprar y leer primero el libro de dragones ...)
Editar: (7 Oct 2008) Ninguna de las respuestas a continuación dan lo que quiero. Con ellos podría generar analizadores sintácticos desde cero, pero quiero aprender a escribir mi propio analizador básico desde cero, sin usar lex ni yacc ni herramientas similares. Habiendo hecho eso, puedo entender mejor el código existente.
Entonces, ¿alguien podría dirigirme a un tutorial donde pueda construir un analizador básico desde cero, usando solo Python?
En segundo lugar la recomendación para PLY, es genial. – mipadi