Supongamos que deseo incluir un algoritmo de escalamiento/reducción de imagen en mi programa. El tiempo de ejecución no es importante, el resultado es "calidad". ¿Cómo se define "calidad" en este caso y cómo se elige el mejor algoritmo entre las opciones disponibles?¿Cómo comparar la "calidad" de dos algoritmos de escalamiento de imagen?
En una nota lateral, si esto es demasiado general, el problema subyacente para el que estoy tratando de encontrar una solución es la siguiente: supongamos que tengo una gran cantidad de imágenes que necesitaré para mejorar la resolución en tiempo de ejecución (un video, en realidad). Puedo preprocesarlos y mejorarlos un poco con un algoritmo lento y de alta calidad, pero no sé la resolución final (bueno, la gente tiene monitores diferentes después de todo), así que no puedo cambiar el tamaño de eso inmediatamente. ¿Sería beneficioso si lo elevara un poco con mi algoritmo de alta calidad y luego dejara que el jugador aumentara la resolución necesaria en el tiempo de ejecución (con un algoritmo rápido pero de baja calidad)? ¿O debería dejar el video tal como está y dejar que todo el escalado se haga de una vez en el tiempo de ejecución?