En un servidor web actualmente implementado, ¿cuáles son los límites típicos de su rendimiento?¿Cuáles son los límites de rendimiento teóricos en los servidores web?
Creo que una respuesta significativa sería una de 100, 1,000, 10,000, 100,000 o 1,000,000 de solicitudes/segundo, pero ¿cuál es el verdadero hoy? ¿Cuál fue verdad hace 5 años? ¿Qué podríamos esperar en 5 años? (es decir, cómo afectan las tendencias del ancho de banda, el rendimiento del disco, el rendimiento de la CPU, la respuesta)
Si es material, se debe considerar el hecho de que HTTP sobre TCP es el protocolo de acceso. Deben asumirse que el sistema operativo, el lenguaje del servidor y los efectos del sistema de archivos son los mejores de su clase.
Supongamos que el disco contiene muchos pequeños archivos únicos que se sirven de forma estática. Tengo la intención de eliminar el efecto de las memorias caché de memoria, y ese tiempo de CPU se usa principalmente para ensamblar la información de red/protocolo. Estas suposiciones pretenden desviar la respuesta hacia las estimaciones del 'peor caso' cuando una solicitud requiere algo de ancho de banda, algo de tiempo de CPU y acceso al disco.
Solo busco algo con un orden de magnitud aproximado.
Por lo general, la memoria se agota primero. Entonces arreglas tu aplicación. Entonces la CPU está agotada. Entonces arreglas tu aplicación. Entonces el ancho de banda de la red se agota. Entonces arreglas tu aplicación. Entonces la memoria se agota ... –
Servidor de subprocesamiento que sirve principalmente archivos estáticos no agotaría la RAM. – vartec
La pregunta no tiene sentido. Los límites de rendimiento teórico se alcanzan con cachés de RAM, descarga de TCP, etc. Poner restricciones artificiales le da un límite de rendimiento igualmente artificial. Y en la práctica, todo el mundo usa al menos algo de caché de RAM, aunque solo sea en los discos. – MSalters