Básicamente, para trec_eval necesita una verdad sobre el terreno (generada por el ser humano). Eso tiene que ser en un formato especial:
query-number 0 document-id relevance
Dada una colección como 101Categories (wikipedia entry) que sería algo así como
Q1046 0 PNGImages/dolphin/image_0041.png 0
Q1046 0 PNGImages/airplanes/image_0671.png 128
Q1046 0 PNGImages/crab/image_0048.png 0
Por tanto, el número de consultas identifica una consulta (por ejemplo, una imagen de una cierta categoría para encontrar similares). Los resultados de su motor de búsqueda tiene entonces que ser transformado para parecerse
query-number Q0 document-id rank score Exp
o en la realidad
Q1046 0 PNGImages/airplanes/image_0671.png 1 1 srfiletop10
Q1046 0 PNGImages/airplanes/image_0489.png 2 0.974935 srfiletop10
Q1046 0 PNGImages/airplanes/image_0686.png 3 0.974023 srfiletop10
como se describe here. Es posible que deba ajustar los nombres de ruta para el "documento-id". Luego puede calcular las métricas estándar . trec_eval --help
debe darle algunas ideas para elegir los parámetros correctos para usar las medidas necesarias para su tesis.
trec_eval
no envía ninguna consulta, tiene que prepararlas usted mismo. trec_eval
hace solo el análisis dado un trouth terreno y sus resultados.
Alguna información básica se puede encontrar here y here.
¿Sigues interesado en este tema? – shellter
Tengo una duda relacionada, ¿cómo manejar las etiquetas de relevancia no binarias? – Shashank