Estoy tratando de comparar la GPU con el rendimiento de la CPU. Para la GPU NVIDIA he estado utilizando los tipos cudaEvent_t
para obtener un tiempo muy preciso.¿Cómo crear un temporizador de alta resolución en Linux para medir el rendimiento del programa?
Para la CPU He estado usando el siguiente código:
// Timers
clock_t start, stop;
float elapsedTime = 0;
// Capture the start time
start = clock();
// Do something here
.......
// Capture the stop time
stop = clock();
// Retrieve time elapsed in milliseconds
elapsedTime = (float)(stop - start)/(float)CLOCKS_PER_SEC * 1000.0f;
Al parecer, ese trozo de código sólo es bueno si usted está contando en cuestión de segundos. Además, los resultados en algún momento resultan bastante extraños.
¿Alguien sabe de alguna manera para crear un temporizador de alta resolución en Linux?
Ver esta pregunta: http://stackoverflow.com/questions/700392/high-resolution-timing-part- of-your-code –