Я собираю веб-страницу, которая довольно «дорогая» с точки зрения попадания в базу данных. Я не хочу начинать оптимизацию на этом этапе - хотя со мной, пытаясь достичь предельного срока, я могу вообще не оптимизировать.Оптимизация запросов к базе данных веб-страниц
В настоящее время этой странице требуется 18 (это право восемнадцать) попадает на базу данных. Я уже использую объединения, и некоторые из запросов UNIONed минимизируют поездки в db. Моя локальная машина-разработчик может справиться с этим (страница не медленная), однако я чувствую, что если я выпущу это в дикую природу, количество запросов будет быстро перегружать мою базу данных (MySQL).
Я всегда мог использовать memcache или что-то подобное, но я бы предпочел продолжить работу с другими моими разработчиками, которые должны быть выполнены до крайнего срока - по крайней мере, для восстановления работы страницы - теперь это просто вопрос оптимизации (при необходимости).
Таким образом, мой вопрос - это 18-разрядные запросы для поиска одной страницы совершенно возмутительно - (то есть я должен положить все на удержание и оптимизировать адскую логику поиска), или я продолжу как обычно, соблюдая крайний срок и выпускать по расписанию и посмотреть, что произойдет?
[Редактировать]
Просто чтобы прояснить, я уже сделал «очевидные» вещи, как с помощью (одиночные и составные) индексов для полей, используемого в запросах. То, что я еще не сделал, - запустить анализатор запросов, чтобы узнать, оптимальны ли мои индексы и т. Д.
Эти вещи не являются «очевидными». Без анализа запросов это просто слепая стрельба. То же самое, что и ваши вопросы о производительности: без профилирования результатов это просто пустой блаб. Производительность не может быть оптимизирована с использованием определенного рецепта или магического номера. Это * процесс *. Что делать. –