вопрос, который я пытаюсь выяснить, является:Определение времени на получение в объекте с помощью TCP
В этой задаче мы рассмотрим задержку, вносимую в TCP медленно начинают фазу. Рассмотрим клиент и веб-сервер, напрямую связанный одним ссылкой с нормой R. Предположим, клиент хочет получить объект, размер которого равен 15S, где S - максимальный размер сегмента (MSS). Обозначьте время округления между клиентом и сервером как RTT (предполагается постоянным). Игнорирование заголовки протокола, определяют время, чтобы получить объект (в том числе установления соединения TCP) когда
- 4S/R> S/R + RTT> 2S/R
- 8S/R> S/R + RTT> 4S/R
- S/R> RTT
у меня есть решение уже (его задача из учебника), но я не понимаю, как они получили ответ.
- RTT + RTT + S/R + RTT + S/R + RTT + 12S/R = 4 · RTT + 14 · S/R
- RTT + RTT + S/R + RTT + S/R + RTT + S/R + RTT + 8S/R = 5 · RTT + 11 · S/R
- RTT + RTT + S/R + RTT + 14S/R = 3 · RTT + 15 · S/R
и вот образ, который идет с ответом:
Какой имеет смысл для меня: Каждый из сценария s - это время, в течение которого время RTT больше или меньше времени, необходимого для передачи определенного количества сегментов. Таким образом, для первого, он занимает где-то между 3S/R и S/R секунд на RTT. Оттуда я не понимаю, как работает медленный старт. Я думал, что это просто увеличивает размер окна для каждого подтвержденного пакета. Но, например, в решении # 1, посылаются только два пакета и ACKed, но размер окна перескакивает до 12S? Что мне здесь не хватает?