В текущем развернутом веб-сервере, каковы типичные ограничения на его производительность?Каковы теоретические пределы производительности на веб-серверах?
Я считаю, что значимым ответом будет один из 100, 1000, 10000, 100 000 или 1 000 000 запросов в секунду, но что верно сегодня? Что было правдой 5 лет назад? Что мы можем ожидать через 5 лет? (т. е. как влияют тенденции в пропускной способности, производительности диска, производительности процессора и т. д.)
Если это материал, следует учитывать тот факт, что протокол HTTP по протоколу TCP является протоколом доступа. OS, язык сервера и эффекты файловой системы следует считать лучшими в своем классе.
Предположим, что на диске содержится много небольших уникальных файлов, которые статически подаются. Я намерен устранить эффект кэшей памяти, и это время процессора в основном используется для сбора информации о сети/протоколе. Эти предположения предназначены для смещения ответа на оценки «наихудшего случая», когда запрос требует некоторой пропускной способности, некоторого времени процессора и доступа к диску.
Я ищу только что-то точное на порядок или около того.
Обычно память сначала исчерпана. Затем вы исправляете свое приложение. Затем процессор исчерпан. Затем вы исправляете свое приложение. Тогда пропускная способность сети исчерпана. Затем вы исправляете свое приложение. Затем память исчерпана ... –
Сервер нитей, обслуживающий главным образом статические файлы, не исчерпывает ОЗУ. – vartec
Вопрос не имеет смысла. Теоретические пределы производительности поражаются кэшами RAM, разгрузкой TCP и т. Д. Ввод искусственных ограничений дает вам одинаково искусственный предел производительности. И на практике каждый использует, по крайней мере, некоторое кэширование ОЗУ, только в самих дисках. – MSalters