глава 18 установление и разрыв tcp соединения tcp это протокол, ориентированный на соединение. перед тем как какая-либо сторона может послать данные другой, между ними должно быть установлено соединение. в этой главе мы подробно рассмотрим, как устанавливается tcp соединение и как оно разрывается. так как для работы tcp необходимо установить соединение между двумя концами он отличается от протоколов без соединения, таких как udp. в главе 11 мы видели, что при использовании udp каждая сторона просто отсылает датаграммы другой, не установив перед этим соединения. установление и разрыв соединения для того чтобы посмотреть, что происходит при установлении и разрыве tcp соединения, мы исполнили на системе svr4 следующую команду:
команда telnet устанавливает tcp соединение с хостом bsdi на порт, соответствующий discard сервису (глава 1, раздел "стандартные простые сервисы"). это как раз тот тип сервиса, который нам необходим, чтобы посмотреть, что происходит при установлении и разрыве соединения, но без обмена данными. вывод tcpdump на рисунке 18.1 показан вывод tcpdump для сегментов, сгенерированных этой командой.
рисунок 18.1 вывод tcpdump для установления и разрыва tcp соединения.
эти семь tcp сегментов содержат только tcp заголовки. обмен данными не осуществлялся. для tcp сегментов каждая выходная строка начинается с
source > destination: flags (источник > назначение: флаги)
где флаги (flags) представляют собой четыре из шести флаговых битов tcp заголовка (рисунок 17.2). на рисунке 18.2 показаны пять различных символов, которые соответствуют флагам и могут появиться в выводе.
рисунок 18.2 символы флагов, выведенные командой tcpdump для флаговых битов в tcp заголовке.
в данном примере мы видим флаги s, f и точку. еще два флага (r и p) появятся позже. два других бита флагов в tcp заголовке - ack и urg - напечатаны командой tcpdump. в одном сегменте может присутствовать больше чем один из четырех флаговых битов, показанных на рисунке 18.2, однако, обычно взведен бывает только один флаг. rfc 1025 [postel 1987] называет сегмент, в котором максимальная комбинация всех доступных флаговых битов взведена одновременно (syn, urg, psh, fin и 1 байт данных) пакетом камикадзе (в английском языке существует еще несколько определений подобного пакета, а именно - "грязный пакет", "пакет новогодней елки" и т.п.).
в строке 1 поле 1415531521:1415531521 (0) означает, что номер последовательности пакета равен 1415531521, а количество байт данных в сегменте равно 0. команда tcpdump печатает начальный номер последовательности, двоеточие, предполагаемый заключительный номер последовательности и затем в скобках количество байт данных. при этом существует возможность просмотреть предполагаемый окончательный номер последовательности, когда количество байтов больше чем 0. в поле появляется (1), если сегмент содержит один или несколько байт пользовательских данных, или (2) если взведены флаг syn, fin или rst. в строках 1, 2, 4 и 6 на рисунке 18.1 это поле появляется, потому что взведены флаговые биты - обмен какими-либо данными в этом примере не производился. в строке 2 поле ack 1415531522 содержит номер подтверждения. оно печатается только в том случае, если флаг ack взведен. поле win 4096 в каждой строке вывода показывает размер окна, который был объявлен отправителем. в этом примере, где не осуществлялся обмен данными, размер окна оставался неизменным и использовалась величина по умолчанию - 4096. (мы рассмотрим размер окна tcp в разделе "размер окна" главы 20.) и последнее поле в выводе на рисунке 18.1, <mss 1024> показывает максимальный размер сегмента (mss - maximum segment size) , опция, которую устанавливает отправитель. отправитель не хочет получать tcp сегменты больше чем это значение. это делается обычно для того, чтобы избежать фрагментации (глава 11, раздел "фрагментация ip"). мы рассмотрим максимальный размер сегмента в разделе "максимальный размер сегмента" этой главы, а формат различных опций tcp покажем в разделе "опции tcp" этой главы. временные диаграммы на рисунке 18.3 показана временная диаграмма соответствующая этому обмену пакетами. (мы описали некоторые основные характеристики временных диаграмм, когда первый раз обратились к рисунку 6.11.) на этом рисунке показано, какая сторона отправляет пакеты. также приведен вывод команды tcpdump (на печать выводилось syn вместо s). в этой временной диаграмме удалено значение размера окна, так как это не существенно для нашего обсуждения. протокол установления соединения а теперь давайте вернемся к деталям tcp протокола, которые показаны на рисунке 18.3. чтобы установить tcp соединение, необходимо:
этих трех сегментов достаточно для установления соединения. часто это называется трехразовым рукопожатием (three-way handshake). рисунок 18.3 временная диаграмма установления и разрыва соединения.
считается, что сторона, которая посылает первый syn, активизирует соединение (активное открытие). другая сторона, которая получает первый syn и отправляет следующий syn, принимает пассивное участие в открытии соединения (пассивное открытие). (в разделе "одновременное открытие" этой главы мы подробно опишем процедуру открытия соединения, где обе стороны считаются активными при установлении соединения.) когда каждая сторона отправила свой syn чтобы установить соединение, она выбирает исходный номер последовательности (isn) для этого соединения. isn должен меняться каждый раз, поэтому каждое соединение имеет свой, отличный от других isn. rfc 793 [postel 1981c] указывает, что isn является 32-битным счетчиком, который увеличивается на единицу каждые 4 микросекунды. благодаря номерам последовательностей, пакеты, задержавшиеся в сети и доставленные позже, не воспринимаются как часть существующего соединения. как выбирается номер последовательности? в 4.4bsd (и в большинстве berkeley реализаций) при инициализации системы исходный номер последовательности устанавливается в 1. подобная практика осуждается требованием к хостам host requirements rfc. затем эта величина увеличивается на 64000 каждые полсекунды и возвращается в значение 0 через каждые 9,5 часов. (это соответствует счетчику, который увеличивается на единицу каждые 8 микросекунд, а не каждые 4 микросекунды.) кроме того, каждый раз, когда устанавливается соединение, эта переменная увеличивается на 64000.
промежуток в 4,1 секунды между сегментами 3 и 4 соответствует времени между установлением соединения и вводом команды quit для telnet, чтобы разорвать соединение. протокол разрыва соединения для того чтобы установить соединение, необходимо 3 сегмента, а для того чтобы разорвать - 4. это объясняется тем, что tcp соединение может быть в наполовину закрытом состоянии. так как tcp соединение полнодуплексное (данные могут передвигаться в каждом направлении независимо от другого направления), каждое направление должно быть закрыто независимо от другого. правило заключается в том, что каждая сторона должна послать fin, когда передача данных завершена. когда tcp принимает fin, он должен уведомить приложение, что удаленная сторона разрывает соединение и прекращает передачу данных в этом направлении. fin обычно отправляется в результате того, что приложение было закрыто. получение fin означает только, что в этом направлении прекращается движение потока данных. tcp, получивший fin, может все еще посылать данные. несмотря на то, что приложение все еще может посылать данные при наполовину закрытом tcp соединении, на практике только некоторые (совсем немного) tcp приложения используют это. обычным является тот сценарий, который показан на рисунке 18.3. мы опишем наполовину закрытый режим более подробно в разделе "наполовину закрытый tcp" этой главы. можно сказать, что та сторона, которая первой закрывает соединение (отправляет первый fin), осуществляет активное закрытие, а другая сторона (которая приняла этот fin) осуществляет пассивное закрытие. обычно, одна сторона осуществляет активное закрытие, а другая пассивное, однако в разделе "одновременное закрытие" этой главы мы увидим, что обе стороны могут осуществить активное закрытие. сегмент номер 4 на рисунке 18.3 приводит к закрытию соединения и посылается, когда telnet клиент прекращает работу. это происходит, когда мы вводим quit. при этом tcp клиент вынужден послать fin, закрывая поток данных от клиента к серверу. когда сервер получает fin, он отправляет назад ack с принятым номером последовательности плюс один (сегмент 5). на fin тратится один номер последовательности, так же как на syn. в этот момент tcp сервер также доставляет приложению признак конца файла (end-of-file) (чтобы выключить сервер). затем сервер закрывает свое соединение, что заставляет его tcp послать fin (сегмент 6), который клиент должен подтвердить (ack), увеличив на единицу номер принятой последовательности (сегмент 7). на рисунке 18.4 показан типичный обмен сегментами при закрытии соединения. номера последовательности опушены. на этом рисунке fin посылаются из-за того, что приложения закрывают свои соединения, тогда как ack для этих fin генерируется автоматически программным обеспечением tcp. соединения обычно устанавливаются клиентом, то есть первый syn двигается от клиента к серверу. однако любая сторона может активно закрыть соединение (послать первый fin). часто, однако, именно клиент определяет, когда соединение должно быть разорвано, так как процесс клиента в основном управляется пользователем, который вводит что-нибудь подобное "quit", чтобы закрыть соединение. на рисунке 18.4 мы можем поменять местами метки, приведенные наверху рисунка, назвав левую сторону сервером, а правую сторону клиентом. однако даже в этом случае все будет работать именно так, как показано на рисунке. (первый пример в разделе "простой пример" главы 14, например, показывал, как сервер времени закрывает соединение.) рисунок 18.4 обычный обмен сегментами при закрытии соединения. обычный вывод tcpdump так как задача отсортировать огромное количество номеров последовательности довольно сложна, в выводе программы tcpdump содержатся полные номера последовательности только для syn сегментов, а все следующие номера последовательностей показаны как относительное смещение от исходных номеров последовательности. (для того чтобы получить вывод, приведенный на рисунке 18.1, мы должны были указать опцию -s.) обычный вывод tcpdump, соответствующий рисунку 18.1, показан на рисунке 18.5.
рисунок 18.5 обычный вывод команды tcpdump, соответствующий установлению и разрыву соединения.
если у нас не будет возникать необходимости показывать полные номера последовательности, мы будем использовать эту форму вывода во всех следующих примерах. тайм-аут при установлении соединения существует несколько причин, по которым не может быть установлено соединение. например, хост (сервер) выключен. чтобы сымитировать подобную ситуацию, мы исполнили команду telnet, после того как отсоединили ethernet кабель от сервера. на рисунке 18.6 показан вывод команды tcpdump.
рисунок 18.6 вывод команды tcpdump для установления соединения, которое было прекращено по тайм-ауту.
в этом выводе необходимо обратить внимание на то, как часто tcp клиент отправляет syn, стараясь установить соединение. второй сегмент посылается через 5,8 секунды после первого, а третий посылается через 24 секунды после второго. необходимо заметить, что этот пример был запущен примерно через 38 минут после того, как клиент был перезагружен. поэтому соответствующий исходный номер последовательности равен 291008001 (примерно 38х60х6400х2). в начале главы мы сказали, что типичные системы berkeley устанавливают исходный номер последовательности в 1, а затем увеличивают его на 64000 каждые полсекунды. также необходимо отметить, что это первое tcp соединение с того момента, как система была перезагружена, так как номер порта клиента равен 1024.
однако на рисунке 18.6 не показано, сколько времени tcp клиент осуществлял повторные передачи, перед тем как отказаться от своей попытки. для того чтобы посмотреть это временные значения, мы должны исполнить команду telnet следующим образом: bsdi % date ; telnet svr4 discard ; date thu sep 24 16:24:11 mst 1992 trying 192.82.148.2... telnet: unable to connect to remote host: connection timed out thu sep 24 16:25:27 mst 1992
время составляет 76 секунд. большинство систем berkeley устанавливают предел времени в 75 секунд, за это время должно быть установлено новое соединение. в разделе "пример rtt" главы 21 мы увидим, что третий пакет, посланный клиентом, будет отброшен по тайм-ауту примерно в 16:25:29, то есть через 48 секунд после того как он был отправлен, при этом клиент не прекратит свои попытки через 75 секунд. первый тайм-аут на рисунке 18.6 следует обратить внимание на то, что первый тайм-аут, 5,8 секунды, близок к 6 секундам, однако не равен 6 секундам, тогда как второй тайм-аут практически точно равен 24 секундам. было исполнено еще десять подобных тестов, причем в каждом из них значение первого тайм-аута колебалось в диапазоне от 5,59 секунды до 5,93 секунды. второй тайм-аут, однако, всегда был 24,00 секунды. это объясняется тем, что bsd реализации tcp запускают таймер каждые 500 миллисекунд. этот 500-миллисекундный таймер используется для различных tcp тайм-аутов, все они будут описаны в следующих главах. когда мы вводим команду telnet, устанавливается исходный 6-секундный таймер (12 тиков часов), однако он может истечь в любом месте между 5,5 и 6 секундами. на рисунке 18.7 показано как это происходит. рисунок 18.7 500-миллисекундный таймер tcp.
так как таймер установлен в 12 тиков, первое уменьшение таймера может произойти между 0 и 500 миллисекунд после его установки. с этого момента таймер уменьшается примерно каждые 500 миллисекунд, однако первый период времени может быть разным. (мы используем слово "примерно", потому что время, когда tcp получает управление каждые 500 миллисекунд, примерное, так как может пройти другое прерывание, которое будет обрабатываться ядром.) когда этот 6-секундный таймер истечет на тике помеченном 0 на рисунке 18.7, таймер переустанавливается в 24 секунды (48 тиков). этот следующий таймер будет равен 24 секундам, так как он был установлен в тот момент времени, когда 500-миллисекундный таймер tcp был вызван ядром, а не пользователем. поле типа сервиса на рисунке 18.6 мы видим выражение [tos 0x10]. это поле типа сервиса (tos - type-of-service) в ip датаграмме (рисунок 3.2). telnet клиент в bsd/386 устанавливает это поле таким образом, чтобы получить минимальную задержку. максимальный размер сегмента (mss) это самая большая порция данных, которую tcp пошлет на удаленный конец. когда соединение устанавливается, каждая сторона может объявить свой mss. значения, которые мы видели, были 1024. ip датаграмма, которая получится в результате, обычно на 40 байт больше: 20 байт отводится под tcp заголовок и 20 байт под ip заголовок. в некоторых публикациях говорится, что эта опция устанавливается "по договоренности". в действительности, договоренность в данном случае не используется. когда соединение устанавливается, каждая сторона объявляет mss, которой она собирается принимать. (опция mss может быть использована только в syn сегменте.) если одна сторона не принимает опцию mss от другой стороны, используется размер по умолчанию в 536 байт. (в этом случае, при 20-байтном ip заголовке и 20-байтном tcp заголовке, размер ip датаграммы будет составлять 576 байт.) в общем случае, чем больше mss тем лучше, до тех пор пока не происходит фрагментация. (это не всегда верно. обратитесь к рисунку 24.3 и рисунку 24.4, чтобы в этом убедиться.) большие размеры сегмента позволяют послать больше данных в каждом сегменте, что уменьшает относительную стоимость ip и tcp заголовков. когда tcp отправляет syn сегмент, либо когда локальное приложение хочет установить соединение, или когда принят запрос на соединение от удаленного хоста, может быть установлено значение mss равное mtu исходящего интерфейса минус размер фиксированных tcp и ip заголовков. для ethernet mss может достигать 1460 байт. при использовании инкапсуляции ieee 802.3 (глава 2, раздел "ethernet и ieee 802 инкапсуляция") mss может быть до 1452 байт. значение 1024, которое мы видим в этой главе, соответствует соединениям, в которых участвуют bsd/386 и svr4, потому что большинство bsd реализаций требует, чтобы mss было кратно 512. другие системы, такие как sunos 4.1.3, solaris 2.2 и aix 3.2.2, объявляют mss равный 1460, когда обе стороны находятся на одном ethernet. расчеты, приведенные в [mogul 1993], показывают, что mss равный 1460 обеспечивают лучшую производительность на ethernet, чем mss равный 1024. если ip адрес назначения "не локальный", mss обычно устанавливается по умолчанию - 536. является ли локальным или нелокальным конечный пункт назначения можно следующим образом. пункт назначения, ip адрес которого имеет тот же самый идентификатор сети и ту же самую маску подсети, что и у отправителя является локальным; пункт назначения, ip адрес которого полностью отличается от идентификатора сети, является нелокальным; пункт назначения с тем же самым идентификатором сети, однако с другой маской подсети, может быть как локальным, так и нелокальным. большинство реализаций предоставляют опцию конфигурации (приложение e и рисунок е.1), которая позволяет системному администратору указать, какие подсети являются локальными, а какие нелокальными. установка этой опции определяет максимальный анонсируемый mss (который по величине может достигать mtu исходящего интерфейса), иначе используется значение по умолчанию равное 536. mss позволяет хосту устанавливать размер датаграмм, который будет отправляться удаленной стороной. если принять во внимание тот факт, что хост также ограничивает размер датаграмм, которые он отправляет, это позволяет избежать фрагментации, когда хост подключен к сети с меньшим mtu. представьте наш хост slip, который имеет slip канал с mtu равным 296, подключенным к маршрутизатору bsdi. на рисунке 18.8 показаны эти системы и хост sun. рисунок 18.8 tcp соединение от sun к slip и значения mss.
мы установили tcp соединение от sun к slip и просмотрели сегменты с использованием tcpdump. на рисунке 18.9 показано только установление соединения (объявления размера окна удалены).
рисунок 18.9 вывод tcpdump для установления соединения от sun к slip.
здесь важно обратить внимание на то, что что sun не может послать сегмент с порцией данных больше чем 256 байт, так как он получил mss равный 256 (строка 2). более того, так как slip знает что mtu исходящего интерфейса равен 296, даже если sun объявит mss равный 1460, он никогда не сможет послать больше чем 256 байт данных, чтобы избежать фрагментации. однако, система может послать данных меньше, чем mss объявленный удаленной стороной. избежать фрагментации таким образом можно только если хост непосредственно подключен к сети с mtu меньше чем 576. если оба хоста подключены к ethernet и оба анонсируют mss равный 536, однако промежуточная сеть имеет mtu равный 296, будет осуществлена фрагментация. единственный способ избежать этого - воспользоваться механизмом определения транспортного mtu (глава 24, раздел "определение транспортного mtu"). tcp предоставляет возможность одному участнику соединения прекратить передачу данных, однако все еще получать данные от удаленной стороны. это называется наполовину закрытый tcp. как мы уже упоминали ранее, немногие приложения могут пользоваться этой возможностью. чтобы использовать эту характеристику программного интерфейса, необходимо предоставить возможность приложению сказать: "я закончило передачу данных, поэтому посылаю признак конца файла (end-of-file) (fin) на удаленный конец, однако я все еще хочу получать данные с удаленного конца до тех пор, пока он мне не пошлет признак конца файла (end-of-file) (fin)." сокеты api поддерживают полузакрытый режим, если приложение вызовет shutdown со вторым аргументом равным 1 вместо вызова close. большинство приложений, однако, разрывают соединения в обоих направлениях вызовом close.
на рисунке 18.10 показан стандартный сценарий для полузакрытого tcp. мы показали клиента с левой стороны, он инициирует полузакрытый режим, однако это может сделать любая сторона. первые два сегмента одинаковы: fin от инициатора, за ним следует ack и fin от принимающего. однако дальше сценарий будет отличаться от того, который приведен на рисунке 18.4, потому что сторона, которая приняла приказ "полузакрыть", может все еще посылать данные. мы показали только один сегмент данных, за которым следует ack, однако в этом случае может быть послано любое количество сегментов данных. (мы расскажем более подробно об обмене сегментами данных и подтверждениями в главе 19.) когда конец, который получил приказ "полузакрыть", осуществил передачу данных, он закрывает свою часть соединения, в результате чего посылается fin, при этом признак конца файла доставляется приложению, которое инициировало "полузакрытый" режим. когда второй fin подтвержден, соединение считается полностью закрытым. рисунок 18.10 tcp в полузакрытом режиме.
для чего может быть использован полузакрытый режим? одним из примеров может являться команда unix rsh(1), которая исполняет команду на другой системе. команда sun % rsh bsdi sort < datafile
запустит команду sort на хосте bsdi, причем стандартный ввод команды rsh будет читаться из файла с именем datafile. команда rsh создает tcp соединения между собой и программой, которая будет исполнена на удаленном хосте. затем rsh функционирует довольно просто: команда копирует стандартный ввод (datafile) в соединение и копирует из соединения в стандартный вывод (наш терминал). на рисунке 18.11 показано как это происходит. (мы помним, что tcp соединение полнодуплексное.) рисунок 18.11 команда: rsh bsdi sort < datafile.
на удаленном хосте bsdi сервер rshd исполняет программу sort таким образом, что ее стандартный ввод и стандартный вывод направлены в tcp соединение. в главе 14 [stevens 1990] приводится подробное описание структуры процесса unix, который участвует здесь, однако нас интересует, как используется tcp соединение и полузакрытый режим tcp. программа sort не может начать генерацию вывода до тех пор, пока весь ее ввод не будет прочитан. все исходные данные, поступающие по соединению от клиента rsh на сервер sort, посылаются в файл, который должен быть отсортирован. когда достигается метка конца файла во вводе (datafile), клиент rsh осуществляет полузакрытие tcp соединения. затем сервер sort принимает метку конца файла из своего стандартного ввода (tcp соединение), сортирует файл и пишет результат в свой стандартный вывод (tcp соединение). клиент rsh продолжает читать tcp соединение на своем конце, копируя отсортированный файл в свой стандартный вывод. без использования наполовину закрытого режима требуется какая-либо дополнительная техника, которая позволит клиенту сообщить серверу, что он закончил посылку данных, однако клиенту все еще разрешено получать данные от сервера. альтернативно необходимо использовать два соединения, однако предпочительно использование полузакрытого режима. диаграмма состояний передачи tcp мы описали несколько правил установления и разрыва tcp соединения. эти правила собраны в диаграмму состояний передачи, которая приведена на рисунке 18.12. необходимо отметить, что эта диаграмма - диаграмма стандартных состояний. мы пометили обычную передачу клиента сплошными жирными стрелками, а обычную передачу сервера пунктирными жирными стрелками. две передачи, ведущие к состоянию установлено (established), соответствуют открытию соединения, а две передачи, ведущие от состояния установлено (established), соответствуют разрыву соединения. состояние установлено (established) наступает в тот момент, когда появляется возможность осуществить передачу данных между двумя сторонами в обоих направлениях. в следующих главах будет описано, что происходит в этом состоянии. мы объединили четыре квадратика в левой нижней части диаграммы внутри пунктирной рамки и пометили их "активное закрытие" (active close). два других квадратика (ожидание_закрытия - close_wait и последнее_подтверждение - last_ack) объединены пунктирной рамкой и помечены как "пассивное закрытие" (passive close). названия 11-ти состояний (закрыто - closed, слушает - listen, syn_отправлен - syn_sent, и так далее) на этом рисунке выбраны таким образом, чтобы соответствовать состояниям, которые выводит команда netstat. имена же netstat, в свою очередь, практически идентичны именам, описанным в rfc 793. состояние закрыто (closed) в действительности не является состоянием, однако является стартовой и конечной точкой для диаграммы. изменение состояния от слушает (listen) к syn_отправлен (syn_sent) теоретически возможно, однако не поддерживается в реализациях berkeley. а изменение состояния от получен_syn (syn_rcvd) назад к слушает (listen) возможно только в том случае, если в состояние получен_syn (syn_rcvd) вошли из состояния слушает (listen) (это обычный сценарий), а не из состояния syn_отправлен (syn_sent) (одновременное открытие). это означает, что если мы осуществили пассивное открытие (вошли в состояние слушает - listen), получили syn, послали syn с ack (вошли в состояние получен_syn - syn_rcvd) и затем получили сброс вместо ack, конечная точка возвращается в состояние слушает (listen) и ожидает прибытия другого запроса на соединение. рисунок 18.12 диаграмма изменений состояния tcp.
на рисунке 18.13 показано обычное установление и закрытие tcp соединения. также подробно описаны разные состояния, через которые проходят клиент и сервер. рисунок 18.13 состояния tcp, соответствующие обычному открытию и разрыву соединения.
на рисунке 18.13 мы предположили что клиент, находящийся с левой стороны, осуществляет активное открытие, а сервер, находящийся справа, осуществляет пассивное открытие. также мы показали, что клиент осуществляет активное закрытие, (как мы упоминали ранее, каждая сторона может осуществить активное закрытие). вам следует проследить изменения состояний на рисунке 18.13 с использованием датаграммы изменения состояний, приведенной на рисунке 18.12, что позволит понять, почему осуществляется то или иное изменение состояния. состояние время_ожидания (time_wait) также иногда называется состоянием ожидания 2msl. в каждой реализации выбирается значение для максимального времени жизни сегмента (msl - maximum segment lifetime) . это максимальное время, в течение которого сегмент может существовать в сети, перед тем как он будет отброшен. мы знаем, что это время ограничено, так как tcp сегменты передаются посредством ip датаграмм, а каждая ip датаграмма имеет поле ttl, которое ограничивает время ее жизни. rfc 793 [postel 1981c] указывает, что msl должно быть равно 2 минутам. в разных реализациях эта величина имеет значение 30 секунд, 1 минута или 2 минуты.
в главе 8 говорилось, что время жизни ip датаграммы ограничивается количеством пересылок, а не таймером. при использовании msl действуют следующие правила: когда tcp осуществляет активное закрытие и посылает последний сегмент содержащий подтверждение (ack), соединение должно остаться в состоянии time_wait на время равное двум msl. это позволяет tcp повторно послать последний ack в том случае, если первый ack потерян (в этом случае удаленная сторона отработает тайм-аут и повторно передаст свой конечный fin). другое назначение ожидания 2msl заключается в том, что пока tcp соединение находится в ожидании 2msl, пара сокетов, выделенная для этого соединения (ip адрес клиента, номер порта клиента, ip адрес сервера и номер порта сервера), не может быть повторно использована. это соединение может быть использовано повторно только когда истечет время ожидания 2msl. к сожалению, большинство реализаций (berkeley одна из них) подчиняются более жестким требованиям. по умолчанию локальный номер порта не может быть повторно использован, до тех пор пока этот номер порта является локальным номером порта пары сокетов, который находится в состоянии ожидания 2msl. ниже мы рассмотрим примеры общих требований. некоторые реализации и api предоставляют средства, которые позволяют обойти эти ограничения. с использованием api сокет может быть указана опция сокета so_reuseaddr. она позволяет вызывающему назначить себе номер локального порта, который находится в состоянии 2msl, однако мы увидим, что правила tcp не позволяют этому номеру порта быть использованным в соединении, которое находится в состоянии ожидания 2msl.
каждый задержанный сегмент, прибывающий по соединению, которое находится в состоянии ожидания 2msl, отбрасывается. так как соединение определяется парой сокет в состоянии 2msl, это соединение не может быть повторно использовано до того момента, пока мы не сможем установить новое соединение. это делается для того, чтобы опоздавшие пакеты не были восприняты как часть нового соединения. (соединение определяется парой сокет. новое соединение называется восстановлением или оживлением данного соединения.) как мы уже показали на рисунке 18.13, обычно клиент осуществляет активное закрытие и входит в режим time_wait. сервер обычно осуществляет пассивное закрытие и не проходит через режим time_wait. можно сделать вывод, что если мы выключим клиента и немедленно его перестартуем, этот новый клиент не сможет использовать тот же самый локальный номер порта. в этом нет никакой проблемы, так как клиенты обычно используют динамически назначаемые порты и не заботятся, какой динамически назначаемый порт используется в настоящее время. однако, с точки зрения сервера все иначе, так как сервера используют заранее известные порты. если мы выключим сервер, который имеет установленное соединение, и постараемся немедленно перестартовать его, сервер не может использовать свой заранее известный номер порта в качестве конечной точки соединения, так как этот номер порта является частью соединения, находящегося в состоянии ожидания 2msl. поэтому может потребоваться от 1 до 4 минут, перед тем как сервер будет перестартован. пронаблюдать подобный сценарий можно с использованием программы sock. мы стартовали сервер, подсоединили к нему клиента, а затем выключили сервер:
когда мы стараемся перестартовать сервер, программа выдает сообщение об ошибке, указывающее на то, что она не может захватить свой заранее известный номер порта, потому что он уже используется (находится в состоянии ожидания 2msl). затем мы немедленно исполняем netstat, чтобы посмотреть состояние соединения и проверить, что оно действительно находится в состоянии time_wait. если мы будем продолжать попытки перестартовать сервер и посмотрим время, когда это удастся, то можем вычислить значение 2msl. для sunos 4.1.3, svr4, bsd/386 и aix 3.2.2 перестартовка сервера займет 1 минуту, что означает, что msl равно 30 секундам. в solaris 2.2 эта перестартовка сервера занимает 4 минуты, это означает, что msl равно 2 минутам.
мы можем увидеть ту же самую ошибку, сгенерированную клиентом, если клиент старается захватить порт, который является частью соединения, находящего в режиме ожидания 2msl (обычно клиент этого не делает):
при первом запуске клиента была указана опция -v, которая позволяет посмотреть, какой используется локальный номер порта (1162). при втором запуске клиента, была указана опция -b, которая сообщает клиенту о необходимости назначить самому себе номер локального порта 1162. как мы и ожидали, клиент не может этого сделать, так как этот номер порта является частью соединения, которое находится в состоянии 2msl. здесь необходимо упомянуть об одной особенности состояния ожидания 2msl, к которой мы вернемся в главе 27, когда будем рассказывать о протоколе передачи файлов (ftp - file transfer protocol). как уже упоминалось раньше, в состоянии ожидания 2msl остается пара сокетов (состоящая из локального ip адреса, локального порта, удаленного ip адреса и удаленного порта). однако, множество реализаций позволяют процессу повторно использовать номер порта, который является частью соединения, находящегося в режиме 2msl (обычно с использованием опции so_reuseaddr) , tcp не может позволить создать новое соединение с той же самой парой сокет. это можно доказать с помощью следующего эксперимента:
в первый раз мы запустили нашу программу sock как сервер на порт 6666 и подсоединили к нему клиента с хоста bsdi. номер динамически назначаемого порта клиента 1098. мы выключили сервер, таким образом, он осуществил активное закрытие. при этом 4 параметра - 140.252.13.33 (локальный ip адрес), 6666 (локальный номер порта), 140.252.13.35 (удаленный ip адрес) и 1098 (удаленный номер порта) на сервере попадают в состояние 2msl. во второй раз мы запустили эту программу в качестве клиента, указав локальный номер порта 6666, при этом была сделана попытка подсоединиться к хосту bsdi на порт 1098. при попытке повторно использовать локальный порт 6666 была сгенерирована ошибка, так как этот порт находится в состоянии 2msl. чтобы избежать появления этой ошибки, мы запустили программу снова, указав опцию -a, которая активизирует опцию so_reuseaddr. это позволило программе назначить себе номер порта 6666, однако была получена ошибка, когда программа попыталась осуществить активное открытие. даже если программа сможет назначить себе номер порта 6666, она не сможет создать соединения с портом 1098 на хосте bsdi, потому что пара сокетов, определяющая это соединение, находится в состоянии ожидания 2msl. что если мы попытаемся установить соединение с другого хоста? во-первых, мы должны перестартовать сервер на sun с флагом -a, так как порт, который ему необходим (6666), является частью соединения, находящегося в состоянии ожидания 2msl:
затем, перед тем как состояние ожидания 2msl закончится на sun, мы стартуем клиента на bsdi: bsdi % sock -b1098 sun 6666 connected on 140.252.13.35.1098 to 140.252.13.33.6666
к сожалению, это работает! это является недостатком tcp спецификации, однако поддерживается большинством реализаций berkeley. эти реализации воспринимают прибытие запроса на новое соединение для соединения, которое находится в состоянии time_wait, если новый номер последовательности больше чем последний номер последовательности, использованный в предыдущем соединении. в этом случае isn для нового соединения устанавливается равным последнему номеру последовательности для предыдущего соединения плюс 128000. приложение к rfc 1185 [jacobson, braden, and zhang 1990] показывает возможные недостатки подобной технологии. эта характеристика реализации позволяет клиенту и серверу повторно использовать те же самые номера порта для успешного восстановления того же самого соединения, в том случае, однако, если сервер не осуществил активное закрытие. мы увидим другой пример состояния ожидания 2msl на рисунке 27.8, когда будем обсуждать ftp. также обратитесь к упражнению 5 этой главы. состояние ожидания 2msl предоставляет защиту от опоздавших пакетов, принадлежащих ранним соединениям, при этом они не будут интерпретироваться как часть нового соединения, которое использует те же самые локальный и удаленный ip адреса и номера портов. однако это работает только в том случае, если хост с соединением в состоянии 2msl не вышел из строя. что если хост с портами в состоянии 2msl вышел из строя, перезагрузился во время msl и немедленно установил новые соединения с использованием тех же самых локальных и удаленных ip адресов и номеров портов, соответствующих локальным портам, которые были в состоянии 2msl перед поломкой? в этом случае опоздавшие сегменты из соединения, которое существовало перед поломкой, могут быть ошибочно интерпретированы как принадлежащие новому соединению, созданному после перезагрузки. это может произойти вне зависимости от того, какой исходный номер последовательности выбран после перезагрузки. чтобы защититься от подобных нежелательных сценариев, rfc 793 указывает, что tcp не должен создавать новые соединения до истечения msl после момента загрузки. это называется тихое время (quiet time). в некоторых реализациях хосты ожидают даже дольше, чем время msl после перезагрузки.
состояние ожидание_и_подтверждение_fin (fin_wait_2) в состоянии fin_wait_2 мы посылаем наш fin, а удаленная сторона подтверждает его. если мы не находимся в состоянии полузакрытого соединения, то ожидаем от приложения на удаленном конце, что оно опознает прием признака конца файла и закроет свою сторону соединения, причем пошлет нам fin. только когда процесс на удаленном конце осуществит это закрытие, наша сторона перейдет из режима fin_wait_2 в режим time_wait. это означает, что наша сторона соединения может остаться в этом режиме навсегда. удаленная сторона все еще в состоянии close_wait и может оставаться в этом состоянии всегда, до тех пор пока приложение не решит осуществить закрытие. большинство berkeley реализаций предотвращают подобное вечное ожидание в состоянии fin_wait_2 следующим образом. если приложение, которое осуществило активное закрытие, осуществило полное закрытие, а не полузакрытие, что указывает на то, что оно ожидает приема данных, в этом случае устанавливается таймер. если соединение не используется в течении 10 минут плюс 75 секунд, tcp переводит соединение в режим закрыто (closed). в комментариях говорится, что подобная характеристика противоречит спецификации протокола. сегменты сброса (reset) мы упоминали, что в tcp заголовке существует бит, называемый rst, что означает "сброс" (reset). в общем случае сигнал "сброс" (reset) посылается tcp в том случае, если прибывающие сегменты не принадлежат указанному соединению. (мы используем термин "указанное соединение" (referenced connection), который обозначает соединение, идентифицируемое ip адресом назначения и номером порта назначения, а также ip адресом источника и номером порта источника. в rfc 793 это называется "сокет".) запрос о соединении на несуществующий порт самый общий случай, при котором генерируется сброс (reset), это когда запрос о соединении прибывает и при этом не существует процесса, который слушает порт назначения. в случае udp, как мы видели в разделе "icmp ошибка недоступности порта" главы 6, если датаграмма прибывает на неиспользуемый порт назначения - генерируется ошибка icmp о недоступности порта. tcp вместо этого использует сброс. мы приведем простой пример с использованием telnet клиента, указав номер порта, который не используется на пункте назначения:
сообщение об ошибке выдается клиенту telnet немедленно. на рисунке 18.14 показан обмен пакетами, соответствующий этой команде.
рисунок 18.14 генерация сброса при попытке открыть соединение на несуществующий порт.
значения, которые нам необходимо более подробно рассмотреть на этом рисунке, это поле номера последовательности и поле номера подтверждения в сбросе. так как бит подтверждения (ack) не был установлен в прибывшем сегменте, номер последовательности сброса установлен в 0, а номер подтверждения установлен во входящий исходный номер последовательности (isn) плюс количество байт данных в сегменте. несмотря на то, что в прибывшем сегменте не присутствует реальных данных, бит syn логически занимает 1 байт в пространстве номера последовательности; таким образом, в этом примере номер подтверждения в сбросе устанавливается в isn плюс длина данных (0) плюс один syn бит. разрыв соединения в разделе "установление и разрыв соединения" этой главы мы видели, что обычный метод, используемый для разрыва соединения, заключается в том, что одна из сторон посылает fin. иногда это называется правильным освобождением (orderly release), так как fin посылается после того, как все данные, ранее поставленные в очередь, были отправлены, и обычно при этом не происходит потеря данных. однако существует возможность прервать соединение, послав сброс (reset) вместо fin. иногда это называется прерывающим освобождением (abortive release). подобный разрыв соединения предоставляет приложению две возможности: (1) любые данные, стоящие в очереди - теряются, и сброс отправляется немедленно, и (2) сторона, принявшая rst, может сказать, что удаленная сторона разорвала соединение, вместо того чтобы закрыть его обычным образом. программный интерфейс (api), который используется приложением, должен предоставлять способ сгенерировать подобный сброс вместо нормального закрытия. мы можем посмотреть, что происходит в случае подобного разрыва, с использованием нашей программы sock. сокеты api предоставляют эту возможность с использованием опции сокета "задержки закрытия" (linger on close) (so_linger). мы указали опцию -l со временем задержки равным 0. это означает, что вместо обычного fin будет послан сброс, чтобы закрыть соединение. мы подключимся к версии программы sock, которая выступает в роли сервера, на svr4:
на рисунке 18.15 показан вывод команды tcpdump для этого примера. (мы удалили все объявления окон в этом рисунке, так как они не влияют на наши рассуждения.)
рисунок 18.15 разрыв соединения с использованием сброса (rst) вместо fin.
в строках 1-3 показано обычное установление соединения. в строке 4 отправляется строка данных, которую мы напечатали (12 символов плюс unix символ новой строки), и в строке 5 прибывает подтверждение о приеме данных. строка 6 соответствует введенному символу конца файла (control-d), с помощью которого мы выключили клиента. так как мы указали разрыв вместо обычного закрытия (опция командной строки -l0), tcp на bsdi пошлет rst вместо обычного fin. rst сегмент содержит номер последовательности и номер подтверждения. также обратите внимание на то, что rst сегмент не ожидает ответа с удаленного конца - он не содержит подтверждения вообще. получатель сброса прерывает соединение и сообщает приложению, что соединение было прервано. мы получим следующую ошибку от сервера при подобном обмене:
этот сервер читает из сети и копирует в стандартный вывод все что получил. обычно он завершает свою работу, получив признак конца файла от своего tcp, однако здесь мы видим, что он получил ошибку при прибытии rst. ошибка это как раз то, что мы ожидали: соединение было разорвано одним из участников соединения. определение полуоткрытого соединения считается, что tcp соединение полуоткрыто, если одна сторона закрыла или прервала соединение без уведомления другой стороны. это может произойти в любое время, если один из двух хостов выйдет из строя. так как какое-то время не будет попыток передать данные по полуоткрытому соединению, одна из сторон будет работать, до тех пор пока не определит что удаленная сторона вышела из строя. еще одна причина, по которой может возникнуть полуоткрытое соединение, заключается в том, что на хосте клиента было выключено питание, вместо того чтобы погасить приложение клиента, а затем выключить компьютер. это происходит тогда, например, telnet клиент запускается на pc, и пользователи выключают компьютер в конце рабочего дня. если в момент выключения pc не осуществлялась передача данных, сервер никогда не узнает, что клиент исчез. когда пользователь приходит на следующее утро, включает свой pc и стартует новый клиент telnet, на хосте сервера стартует новый сервер. из-за этого на хосте сервера может появиться очень много открытых tcp соединений. (в главе 23 мы увидим способ, с помощью которого один конец tcp соединения может определить, что другой исчез. это делается с использованием tcp опции "оставайся в живых" (keepalive)). мы можем легко создать полуоткрытое соединение. запускаем клиента telnet на bsdi и подсоединяемся к discard серверу на svr4. вводим одну строку и смотрим с использованием tcpdump, как она проходит, а затем отсоединяем ethernet кабель от хоста сервера и перезапускаем его. этим самым мы имитировали выход из строя хоста сервера. (мы отсоединили ethernet кабель перед перезагрузкой сервера, чтобы тот не послал fin в открытое соединение, что делают некоторые tcp модули при выключении.) после того как сервер перезагрузился, мы подсоединили кабель и попробовали послать еще одну строку от клиента на сервер. так как сервер был перезагружен и потерял все данные о соединениях, которые существовали до перезагрузки, он ничего не знает о соединениях и не подозревает о том, какому соединению принадлежат прибывшие сегменты. в этом случае принимающая сторона tcp отвечает сбросом (reset).
на рисунке 18.16 показан вывод tcpdump для этого примера. (мы удалили из вывода объявления окон, информацию о типе сервиса и объявления mss, так как они не влияют на наши рассуждения.)
рисунок 18.16 сброс в ответ на приход сегмента данных при полуоткрытом соединении.
в строках 1-3 осуществляется обычное установление соединения. в строке 4 отправляется строка "hi there" (это можно примерно перевести как "эй вы, там") на discard сервер, в строке 5 приходит подтверждение. в этом месте мы отсоединили ethernet кабель от svr4, перезагрузили его и подсоединили кабель снова. вся процедура заняла примерно 190 секунд. затем мы напечатали следующую строку ввода на клиенте ("another line"), и когда мы нажали клавишу return, строка была отправлена на сервер (строка 6 на рисунке 18.16). при этом был получен ответ от сервера, однако так как сервер был перезагружен, его arp кэш пуст, поэтому в строках 7 и 8 мы видим arp запрос и отклик. затем в строке 9 был послан сброс (reset). клиент получил сброс и выдал, что соединение было прервано удаленным хостом. (последнее сообщение вывода от клиента telnet не столь информативно как могло бы быть.) для двух приложений существует возможность осуществить активное открытие в одно и то же время. с каждой стороны должен быть передан syn, и эти syn должны пройти по сети навстречу друг другу. также требуется, чтобы каждая сторона имела номер порта, который известен другой стороне. это называется одновременным открытием (simultaneous open). например, приложение на хосте а имеющее локальный порт 7777 осуществляет активное открытие на порт 8888 хоста в. приложение на хосте в имеющее локальный порт 8888 осуществляет активное открытие на порт 7777 хоста а. это не то же самое что подсоединение telnet клиента с хоста а на telnet сервер на хосте в, в то время когда telnet клиент с хоста в подсоединяется к telnet серверу на хосте а. в подобном сценарии оба telnet сервера осуществляют пассивное открытие, а не активное, тогда как telnet клиенты назначают себе динамически назначаемые номера портов, а не порты, которые заранее известны для удаленных telnet серверов. tcp специально разработан таким образом, чтобы обрабатывать одновременное открытие, при этом результатом является одно соединение, а не два. (в других семействах протоколов, например, в транспортном уровне osi, в подобном случае создается два соединения, а не одно.) когда осуществляется одновременное открытие, изменения состояний протокола отличаются от тех, которые показаны на рисунке 18.13. оба конца отправляют syn в одно и то же время, при этом входят в состояние syn_отправлен (syn_sent). когда каждая сторона принимает syn, состояние меняется на syn_принят (syn_rcvd) (см. рисунок 18.12), и каждый конец повторно отправляет syn с подтверждением о том, что syn принят. когда каждый конец получает syn плюс ack, состояние меняется на установлено (established). изменения состояний приведены на рисунке 18.17. рисунок 18.17 обмен сегментами в процессе одновременного открытия.
одновременное открытие требует обмена четырьмя сегментами, на один больше чем при "трехразовом рукопожатии". также обратите внимание на то, что мы не называем один из концов клиентом, а другой сервером, потому что в данном случае оба выступают и как клиент и как сервер. пример осуществить одновременное открытие возможно, однако достаточно сложно. обе стороны должны быть стартованы примерно в одно и то же время, таким образом, чтобы syn пересеклись друг с другом. в данном случае может помочь большое время возврата между двумя участниками соединения, что позволяет syn пересечься. чтобы получить это, мы используем в качестве одного участника соединения хост bsdi, а другого хост vangogh.cs.berkeley.edu. так как между ними находится slip канал с дозвоном, время возврата должно быть достаточно большим (несколько сотен миллисекунд), что позволяет syn пересечься. один конец (bsdi) назначает себе локальный порт 8888 (опция командной строки -b) и осуществляет активное открытие на порт 7777 другого хоста:
другой конец был стартован примерно в это же самое время, он назначил себе номер локального порта 7777 и осуществил активное открытие на порт 8888:
мы указали флаг -v в командной строке программы sock, чтобы проверить ip адреса и номера портов для каждого конца соединений. этот флаг также печатает mss, используемый на каждом конце соединения. мы также напечатали в качестве ввода по одной строке на каждом конце, которые были отправлены на удаленный конец и напечатаны там, чтобы убедиться, что оба хоста "видят" друг друга. на рисунке 18.18 показан обмен сегментами для этого соединения. (мы удалили некоторые новые опции tcp, появившиеся в исходных syn, пришедших от vangogh, которая работает под управлением 4.4bsd. мы опишем эти новые опции в разделе "опции tcp" этой главы.) обратите внимание, что за двумя syn (строки 1 и 2) следуют два syn с ack (строки 3 и 4). при этом происходит одновременное открытие. в строке 5 показана введенная строка "hello, world", которая идет от bsdi к vangogh с подтверждением в строке 6. строки 7 и 8 соответствуют строке "and hi there", которая идет в другом направлении. в строках 9-12 показано обычное закрытие соединения. большинство реализаций berkeley не поддерживают корректно одновременное открытие. в этих системах, если вы можете добиться того, что syn пересекутся, все закончится обменом сегментов, каждый с syn и ack, в обоих направлениях. в большинстве реализаций не всегда осуществляется переход от состояния syn_sent в состояние syn_rcvd, показанный на рисунке 18.12.
рисунок 18.18 обмен сегментами при одновременном открытии.
как мы сказали ранее, с одной стороны (часто, но не всегда, со стороны клиента) осуществляется активное закрытие, при этом посылается первый fin. также возможно для обеих сторон осуществить активное закрытие, так как протокол tcp позволяет осуществить одновременное закрытие (simultaneous close). в терминах, приведенных на рисунке 18.12, оба конца переходят от состояния установлено (established) к состоянию ожидание_fin_1 (fin_wait_1) , когда приложение выдает сигнал к закрытию. при этом оба посылают fin, которые возможно встретятся где-нибудь в сети. когда fin принят, на каждом конце происходит переход из состояния fin_wait_1 в состояние закрываю (closing) и с каждой стороны посылается завершающий ack. когда каждый конец получает завершающий ack, состояние меняется на time_wait. на рисунке 18.19 показаны изменения состояний. рисунок 18.19 обмен сегментами в процессе одновременного закрытия.
при одновременном закрытии происходит обмен таким же количеством пакетов, как и при обычном закрытии. tcp заголовок может содержать опции (рисунок 17.2). единственные опции, которые определены в оригинальной спецификации tcp, следующие: конец списка опций, нет операции и максимальный размер сегмента. мы видели в наших примерах, опцию mss практически в каждом syn сегменте. более новые rfc, например rfc 1323 [jacobson, braden, and borman 1992], определяют дополнительные опции tcp, большинство из которых можно обнаружить только в более поздних реализациях. (мы опишем новые опции в главе 24.) на рисунке 18.20 показан формат текущих опций tcp - тех, которые описаны в rfc 793 и rfc 1323. рисунок 18.20 tcp опции.
каждая опция начинается с 1-байтового типа (kind), который указывает на тип опции. опции, тип которых равен 0 и 1, занимают 1 байт. другие опции имеют длину (len) байт, который следует за байтом типа. длина - это полная длина, включающая байты типа и длины. опция "нет операции" (nop) добавлена, чтобы отправитель мог заполнить поля, которые должны быть кратны 4 байтам. если мы установим tcp соединение от системы 4.4bsd, в начальном syn сегменте с помощью tcpdump можно увидеть следующие опции: <mss 512, nop, wscale 0, nop, nop, timestamp 146647 0>
опция mss установлена в 512, за ней следует nop, за ней следует опция размера окна. первая опция nop используется для того, чтобы дополнить 3-байтовую опцию размера окна до 4 байт. точно так же, 10-байтовая опция временной марки предваряется двумя nop, чтобы занимать 12 байт. четыре другие опции, которым соответствует тип равный 4, 5, 6 и 7, называются опциями селективного ack и эхо опциями. мы не показали их на рисунке 18.20, потому что эхо опции заменены опцией временной марки, а селективные ack, как определено в настоящее время, все еще находятся в обсуждении и не были включены в rfc 1323. надо отметить, что предложение t/tcp для tcp транзакций (раздел "t/tcp: расширение tcp для транзакций" главы 24) указывает еще три опции с типами равными 11, 12 и 13. реализация tcp сервера в разделе "модель клиент-сервер" главы 1 мы сказали, что большинство tcp серверов - конкурентные. когда на сервер прибывает запрос об установлении нового соединения, он принимает соединение и запускает новый процесс, который будет обслуживать нового клиента. в зависимости от операционной системы используются различные способы для создания нового сервера. в unix системах новый процесс создается с использованием функции fork. нам необходимо обсудить, как tcp взаимодействует с конкурентными серверами. хочется ответить на следующий вопрос: как обрабатываются номера портов, когда сервер получает запрос на новое соединение от клиента, и что произойдет, если в одно и то же время прибудет несколько запросов на соединение? мы можем сказать, как tcp обрабатывает номера портов, рассмотрев любой tcp сервер. рассмотрим telnet сервер с использованием команды netstat. следующий вывод приведен для системы, у которых нет активных telnet соединений. (мы удалили все строки за исключением одной, которая показывает telnet сервер.)
флаг -a сообщает о всех конечных точках сети, а не только о находящихся в состоянии установлено (established). флаг -n печатает ip адреса в цифровом десятичном представлении, вместо того чтобы использовать dns для конвертирования адресов в имена, и печатает цифровые номера портов (например, 23) вместо печати имен сервисов (в данном случае telnet). опция -f inet сообщает только о конечных точках tcp и udp. локальный адрес выводится как *.23, где звездочка обычно называется символом подстановки или метасимволом. это означает что входящий запрос о соединении (syn) будет принят с любого локального интерфейса. если хост имеет несколько интерфейсов, мы могли бы указать один конкретный ip адрес в качестве локального ip адреса (один из ip адресов хоста), и только запросы на соединение, принятые с этого интерфейса, будут обслужены. (мы увидим, как это делается, позже в этом разделе.) локальный порт равен 23, это заранее известный порт для telnet. удаленный адрес показан как *.*, это означает, что удаленный ip адрес и удаленный номер порта пока не известны, потому что конечная точка находится в состоянии слушает (listen), ожидая прибытия запроса на соединение. сейчас мы стартуем telnet клиента на хосте slip (140.252.13.65), который подсоединится к этому серверу. здесь приведены соответствующие строки вывода команды netstat:
первая строка для порта 23 это установленное соединение (established). для этого соединения заполнены все четыре элемента локального и удаленного адресов: локальный ip адрес и номер порта, и удаленный ip адрес и номер порта. локальный ip адрес соответствует интерфейсу, на который прибыл запрос о соединении (ethernet интерфейс, 140.252.13.33). конечная точка осталась в состоянии listen. это конечная точка, которую конкурентный сервер использует, для того чтобы принимать запросы на соединение, которые придут в будущем. в данном случае tcp модуль, находящийся в ядре, создал новую конечную точку в состоянии established, в момент, когда входящий запрос о соединении прибыл и был принят. также обратите внимание на то, что номер порта для соединения, которое находится в состоянии established, не изменился: он равен 23, как и для конечной точки, которая находится в состоянии listen. сейчас мы стартуем еще одного telnet клиента с того же самого клиента (slip) на этот сервер. соответствующий вывод команды netstat будет выглядеть следующим образом:
сейчас мы видим два установленных (established) соединения с того же самого хоста на тот же самый сервер. оба имеют локальный номер порта равный 23. это не проблема для tcp, так как номера удаленных портов различны. они должны быть различны, потому что каждый telnet клиент использует динамически назначаемый порт, а из определения динамически назначаемого порта мы знаем, что динамически назначенным может быть только тот порт, который не используется в настоящее время на хосте (slip). этот пример показывает, что tcp демультиплексирует входящие сегменты с использованием всех четырех значений, которые сравниваются с локальным и удаленным адресами: ip адрес назначения, номер порта назначения, ip адрес источника и номер порта источника. tcp не может определить, какой процесс получил входящий сегмент, просматривая только номер порта назначения. также только одна из трех конечных точек на порту 23, которая находится в состоянии listen, принимает входящие запросы на соединения. конечные точки, находящиеся в состоянии established, не могут принимать сегменты syn, а конечная точка, находящаяся в состоянии listen, не может принимать сегменты данных. сейчас мы стартуем еще одного клиента telnet с хоста solaris, который пройдет через slip канал от sun, а не через ethernet.
локальный ip адрес для первого установленного (established) соединения теперь соответствует адресу интерфейса slip канала на многоинтерфейсном хосте sun (140.252.1.29). ограничение локальных ip адресов мы можем посмотреть, что произойдет, когда сервер не использует символы подстановки в качестве своих локальных ip адресов, устанавливая вместо этого один конкретный адрес локального интерфейса. если мы укажем ip адрес (или имя хоста) нашей программе sock, когда используем ее в качестве сервера, этот ip адрес станет локальным ip адресом слушающей конечной точки. например sun % sock -s 140.252.1.29 8888
ограничивает этот сервер только для соединений, прибывающих с slip интерфейса (140.252.1.29). вывод команды netstat покажет следующее:
если мы подсоединимся к этому серверу через slip канал с хоста solaris, это сработает.
однако если мы постараемся подсоединиться к этому серверу с хоста через ethernet (140.252.13), запрос на соединение не будет принят tcp модулем. если мы посмотрим с помощью tcpdump, то увидим что на syn получен отклик rst, как показано на рисунке 18.21.
рисунок 18.21 ограничение запросов на соединения, основанное на локальном ip адресе сервера.
приложение, работающее на сервере, никогда не увидит запрос на соединение - ограничение осуществляется tcp модулем в ядре на основе локального ip адреса, указанного приложением. ограничение удаленного ip адреса в разделе "сервер udp" главы 11 мы видели, что udp сервер может определить удаленный ip адрес и номер порта, в дополнение к указанным локальному ip адресу и номеру порта. функции интерфейса, приведенные в rfc 793, позволяют серверу осуществлять пассивное открытие на основе полностью описанного удаленного сокета (в этом случае ожидается запрос на активное открытие от конкретного клиента) или не указанного удаленного сокета (в этом случае ожидается запрос на соединение от любого клиента). к сожалению, большинство api не предоставляют таких возможностей. сервер должен оставлять удаленный сокет неконкретизированным, ожидая прибытия соединения, а затем проверяя ip адрес и номер порта клиента. на рисунке 18.22 показаны три типа адресов и взаимосвязи адресов с портами, которые tcp сервер может установить для себя. во всех случаях lport это заранее известный порт сервера, а localip должен быть ip адресом локального интерфейса. порядок, в котором расположены три строки в таблице, соответствует порядку, в котором tcp модуль пытается определить, которая локальная конечная точка примет входящий запрос на соединение. сначала осуществляется попытка, соответствующая первой строке таблицы (если поддерживается), и затем остальные спецификации (последняя строка с ip адресами, указанными в виде символов подстановки) пробуются последней.
рисунок 18.22 указание локального и удаленного ip адресов и номеров порта для tcp сервера. входящая очередь запросов на соединение конкурентный сервер запускает новый процесс, который обслуживает каждого клиента, поэтому слушающий сервер должен быть всегда готов обработать следующий входящий запрос на соединение. это основная причина, по которой используются конкурентные серверы. однако, существует вероятность того, что несколько запросов на соединение прибудут как раз в тот момент, когда слушающий сервер создает новый процесс, или когда операционная система занята обработкой другого процесса с более высоким приоритетом. как tcp обрабатывает эти входящие запросы на соединение, пока слушающее приложение занято? реализации berkeley используют следующие правила.
рисунок 18.23 максимальное количество принимаемых соединений для слушающей конечной точки. запомните, что это значение backlog указывает только на максимальное количество соединений, поставленных в очередь для одной слушающей конечной точки, все из которых уже приняты tcp и ожидают того, чтобы быть принятыми приложением. значение backlog не оказывает какого-либо влияния на максимальное количество соединений, которое может быть установлено системой, или на количество клиентов, которое может обслужить конкурентный сервер. значения для solaris на этом рисунке именно такие, как мы и ожидали. традиционные значения для bsd (по каким-то непонятным причинам) равны значению backlog, умноженному на 3, поделенному на 2, плюс 1.
мы можем посмотреть этот сценарий с использованием программы sock. запустим ее с новой опцией (-o), которая сообщает о необходимости сделать паузу после создания слушающей конечной точки, перед приемом любого запроса на соединение. если затем мы запустим несколько клиентов в течение этой паузы, сервер будет вынужден поставить в очередь принятые соединения, а то, что произойдет, мы увидим с использованием команды tcpdump. bsdi % sock -s -v -q1 -o30 5555
опция -q1 устанавливает backlog слушающей конечной точки в значение 1, для традиционной bsd системы это будет соответствовать двум запросам на соединение (рисунок 18.23). опция -o30 заставляет программу "проспать" 30 секунд перед приемом любого соединения от клиента. это дает нам 30 секунд, чтобы стартовать несколько клиентов, которые заполнят очередь. мы стартуем четырех клиентов на хосте sun. на рисунке 18.24 показан вывод программы tcpdump, этот вывод начинается с первого syn от первого клиента. (мы удалили объявления размера окна и объявления mss. также мы выделили номера портов клиента жирным шрифтом, когда tcp соединение устанавливается - "трехразовое рукопожатие".) первый запрос на соединение от клиента, пришедший с порта 1090, принимается tcp модулем (сегменты 1-3). второй запрос на соединение от клиента с порта 1091 также принимается tcp модулем (сегменты 4-6). приложение сервера все еще "спит" и не приняло ни одного соединения. все проделанное было осуществлено tcp модулем в ядре. также надо отметить, что два клиента успешно осуществили активное открытие, то есть "трехразовое рукопожатие" было успешно завершено.
рисунок 18.24 вывод программы tcpdump для примера использования backlog.
мы попытались стартовать третьего клиента в сегменте 7 (порт 1092) и четвертого в сегменте 8 (порт 1093). tcp игнорировало оба syn, так как очередь для этой слушающей конечной точки заполнена. оба клиента повторно передали свои syn в сегментах 9, 10, 11, 12 и 15. третья повторная передача четвертого клиента принята (сегменты 12-14), потому что 30-секундная пауза сервера закончилась, и сервер удалил два соединения, которые были приняты, очистив очередь. (причина, по которой это произошло, заключается в том, что это соединение было принято сервером в момент времени 28.19, а не в момент времени, который больше чем 30; это произошло потому, что потребовалось несколько секунд, чтобы стартовать первого клиента [сегмент 1, время старта в выводе] после старта сервера.) четвертая повторная передача третьего клиента также принята (сегменты 15-17). соединение четвертого клиента (порт 1093) принято сервером перед соединением третьего клиента (порт 1092) из-за совпадения времени между окончанием 30-секундной паузы и повторной передачей клиента. мы могли ожидать, что очередь принятых соединений будет обработана приложением в соответствии с принципом fifo (первый вошел, первый вышел). таким образом, после того как tcp принял приложение на порты 1090 и 1091, мы ожидали, что приложение получит соединение сначала на порт 1090, а затем соединение на порт 1091. однако, в большинстве реализаций berkeley существует ошибка (bug), в результате чего используется порядок lifo (последний вошел, первый вышел). производители много раз пытались исправить эту ошибку, однако она до сих пор существует в таких системах как sunos 4.1.3.
tcp игнорирует входящее syn, когда очередь заполнена, и не отвечает с использованием rst, из-за ошибки. обычно очередь заполнена, потому что приложение или операционная система заняты, поэтому приложение не может обработать входящие соединения. подобное состояние может измениться за короткий промежуток времени. однако, если tcp сервер ответил сбросом (reset), активное открытие клиента будет прервано (как раз это произойдет, если сервер не был стартован). так как syn игнорирован, tcp клиент будет вынужден повторно передать syn позже, в надежде на то, что в очереди появится место для нового соединения. в этом месте необходимо обсудить еще одну очень важную деталь, которая присутствует практически во всех реализациях tcp/ip. она заключается в том, что tcp принимает входящий запрос на соединение (syn) в том случае, если в очереди есть место. при этом приложение не может посмотреть, от кого пришел запрос (ip адрес источника и номер порта источника). это не требуется tcp, это всего лишь общая техника, используемая в реализациях. если api, такой как tli (раздел "интерфейсы прикладного программирования" главы 1), уведомляет приложение о прибытии запроса на соединение и позволяет приложению выбрать, принять это соединение или нет, то при использовании tcp получается так, что когда приложению сообщается, что соединение только что прибыло, в действительности tcp уже завершил "трехразовое рукопожатие"! в других транспортных уровнях существует возможность разграничить прибывшее и принятое соединения (osi транспортный уровень), однако tcp такой возможности не предоставляет. solaris 2.2 предоставляет опцию, которая не позволяет tcp принимать входящий запрос на соединение до тех пор, пока ему это не разрешит приложение (tcp_eager_listeners в разделе "solaris 2.2" приложения e).
это поведение также означает, что tcp сервер не может сделать так что активное открытие клиента будет прервано. когда соединение от нового клиента попадает к приложению сервера, "трехстороннее рукопожатие" tcp уже закончено и активное открытие клиента завершено успешно. если сервер затем смотрит на ip адрес клиента и номер порта и решает, что он не хочет обслуживать этого клиента, все сервера могут просто закрыть соединение (при этом будет послан fin) или сбросить соединение (будет послан rst). в любом случае клиент будет считать, что с сервером все нормально, так как завершилось активное открытие, и, вполне возможно, уже послал серверу какой-либо запрос. перед тем как два процесса смогут обмениваться данными с использованием tcp, они должны установить соединение между собой. когда работа между ними закончена, соединение должно быть разорвано. в этой главе детально рассмотрено то, как устанавливается соединение с использованием "трехразового рукопожатия" и как оно разрывается с использованием четырех сегментов. мы использовали tcpdump, чтобы показать все поля в заголовке tcp. мы также посмотрели, как установленное соединение может быть прервано по тайм-ауту, как сбрасывается соединение, что происходит с полуоткрытым соединением и как tcp предоставляет полузакрытый режим, одновременное открытие и одновременное закрытие. для того чтобы понять функционирование tcp, необходимо рассмотреть фундаментальную диаграмму изменения состояний tcp. мы рассмотрели по пунктам, как устанавливается и разрывается соединение, и какие при этом происходят изменения в состоянии. также мы рассмотрели, как tcp серверы осуществляют установление соединений tcp. tcp соединения уникально идентифицируются 4 параметрами: локальным ip адресом, локальным номером порта, удаленным ip адресом и удаленным номером порта. если соединение разрывается, одна сторона все равно должна помнить об этом соединении, в этом случае мы говорим что работает режим time_wait. правило гласит, что эта сторона может осуществить активное открытие, войдя в этот режим, после того как истекло удвоенное время msl, принятое для данной реализации.
sun % sock -v bsdi daytime connected on 140.252.13.33.1163 to 140.252.13.35.13 wed jul 7 07:54:51 1993 connection closed by peer sun % sock -v -b1163 bsdi daytime повторное использование того же номера локального порта connected on 140.252.13.33.1163 to 140.252.13.35.13 wed jul 7 07:55:01 1993 connection closed by peer в конце раздела "диаграмма состояний передачи tcp", когда мы описывали состояние fin_wait_2, мы указали, что большинство реализаций переводит соединение из этого состояния в состояние closed, если приложение осуществило полное закрытие (не наполовину закрытый) примерно через 11 минут. если другая сторона (в состоянии close_wait) ждет 12 минут перед осуществлением закрытия (отправка своего fin), что его tcp получит в ответ на fin? 1 0.0 solaris.32990 > bsdi.discard: s 40140288:40140288 (0) win 8760 <mss 1460> 2 0.003295 (0.0033) bsdi.discard > solaris.32990: s 4208081409:4208081409 (0) ack 40140289 win 4096 <mss 1024> 3 0.419991 (0.4167) solaris.32990 > bsdi.discard: p 1:257 (256) ack 1 win 9216 4 0.449852 (0.0299) solaris.32990 > bsdi.discard: f 257:257 (0) ack 1 win 9216 5 0.451965 (0.0021) bsdi.discard > solaris.32990: . ack 258 win 3840 6 0.464569 (0.0126) bsdi.discard > solaris.32990: f 1:1 (0) ack 258 win 4096 7 0.720031 (0.2555) solaris.32990 > bsdi.discard: . ack 2 win 9216 почему бы серверу на рисунке 18.4 не скомбинировать ack на fin клиента со своим собственным fin, уменьшив тем самым количество сегментов до трех?
|