Интернет скорость 1 гбит с. Почему крупные провайдеры интернета отказались от высокоскоростных тарифов. Абсолютные значения стоимости доставки трафика у транзитных провайдеров в различных регионах

Подписаться
Вступай в сообщество «nloeda.ru»!
ВКонтакте:

Гигабитный интернет дома - и что с ним делать? Тестируем сверхскоростную сеть и ищем слабые ее места

Интернет дорогой, скорость маленькая - такие жалобы, вероятно, будут появляться всегда. Оценив оба аспекта, можно возразить: цены в Беларуси на доступ в сеть с учетом всех особенностей вполне приемлемые. Ну а скорости?.. Кому-то хватит мегабита, другому и 100 окажется мало. Все зависит от потребностей, да и современный контент нельзя назвать «легким», а его поставщики не слишком заботятся о «ширине» канала. В качестве эксперимента мы попросили интернет-оператора «Атлант Телеком» предоставить домашний гигабитный интернет - чтобы понять, нужен ли белорусу пресловутый 1 Гбит/сек.

Какую скорость соединения считать комфортной? В некоторых странах «социальным» минимумом считается 5-мегабитный интернет. Лидерство же долгое время удерживает Южная Корея с показателем 28,6 Мбит/с, средний глобальный показатель - 7,2 Мбит/с. Для сравнения, в Беларуси, согласно отчету компании Akamai, средняя скорость составляет около 9,7 Мбит/с, и наша страна оказывается в пятом десятке мирового рейтинга, что является неплохим показателем.

Но что же такое мифический гигабитный интернет? Мифический для простого пользователя, который не знает, что такое дата-центр, интернет вещей, big data и так далее. То есть для 95% белорусов. В принципе, уже сегодня он может быть доступен белорусам, но операторы связи почему-то не предлагают таких тарифов, либо предложение ограничено. Хотя еще несколько лет назад как минимум один вариант .

Подключение

До момента подключения я долгое время пользовался тарифом с 50-мегабитным соединением (100 Мбит/с в пиринге). Плюсы и минусы такого подключения знакомы многим: торренты способны забрать весь выделенный канал, но IPTV и игры при этом особо не страдают - скорости достаточно для одновременной работы всего.

Собственно переход на (еще более) высокоскоростное соединение состоял в прокладке нового кабеля непосредственно от операторского оборудования, замене витой пары в самой квартире и маршрутизатора - и скорость выросла в 20 раз. Затем нас ждало несколько сюрпризов.

Первый преподнес популярный Speedtest. При попытке замерить скорость подключения операторское оборудование отправляло меня в «бан» (из-за особенностей алгоритмов работы Speedtest). Понадобилось некоторое время, чтобы решить проблему - провайдер перенастроил «железо».

Теперь, когда на табло «спидтеста» засветились какие-то невероятные значения, настало время второго сюрприза: оказывается, далеко не каждый сервер на территории Беларуси способен «поднять» тот самый гигабит. Что ж, испытаем иностранные…

Сервер отказался замерять скорость - то ли «лег», то ли отправил в «бан»

Приведены только некоторые результаты измерений, а сервис «Яндекс» не захотел разгоняться

Некоторые удаленные хосты болезненно относились к нагрузке, блокируя доступ, но тем не менее скорость варьировалась от 450-550 Мбит/с на США (Купертино) до 930 Мбит/с в российском направлении, а Европа - Германия, Франция, Польша - оказалась примерно посередине.

Синтетические тесты завершены, нужно попробовать что-то приближенное к реальности. Ищем файлы в сети p2p, а затем запускаем Steam. В первом случае наиболее популярный файл позволил приблизиться к отметке в 41 МБ в секунду. Это не предел, но результат показательный - до максимума не дотягивает.

В сервисе Valve была выбрана игра объемом около 30 ГБ. Жмем «Установить», однако скорость выше 330 Мбит/с (41 МБ в секунду) не поднимается. Что это там шуршит под столом? Вот и то самое узкое место - жесткий диск, который исчерпал свои возможности. Выбираем в настройках SSD, и скорость поднимает до 64 мегабайт в секунду (около 512 Мбит/с).

Интернет есть, скорости нет

Какие выводы можно сделать? В зоне ответственности оператора все в порядке - гигабит подведен к маршрутизатору, а вот дальше начинаются «затыки». Основные причины пониженных скоростей очевидны: жесткий диск, неспособный обеспечить запись данных (бюджетный SSD также может не справиться с задачей), общая производительность компьютера, недостаточная скорость отдачи файлов источником (она может быть ограничена удаленной стороной программно).

Если пользователь обладает своим маршрутизатором, не исключено, что и это устройство окажется слабым звеном - речь идет о его процессоре и портах. Кроме того, в гигабитном устройстве Ethernet-порты вполне могут оказаться 100-мегабитными. Ну и банальная, казалось бы, причина - провода. Старая или дешевая витая пара, которая лежит во многих домах под и над плинтусами, проложена 4-жильная, а она, сколько в бубен ни бей, гигабит не потянет. С беспроводными соединениями все еще сложнее.

«Как это бывает? Ты покупаешь роутер, на котором написано „гигабит“, однако это не означает, что такая скорость будет всегда и везде. Обычно речь идет о скорости между LAN-портами, а вот между LAN- и WAN-портами ее может не быть. Поэтому у операторов есть рекомендуемые и протестированные модели с гарантированными показателями.

В беспроводном соединении еще больше маркетинга. Простой пример: надпись „300 Мбит/с“ или „1100 Мбит/с“ для Wi-Fi», - приводит пример начальник управления по фиксированной связи velcom Олег Гаврилов. В кабеле реализована дуплексная связь с одинаковыми показателями в каждом направлении.

Wi-Fi работает иначе, и 1100 Мбит/с означает, что скорость будет поделена примерно поровну. Кроме того, при скоростях больше 300 Мбит/с указываются параметры для двух диапазонов, которые суммируются. «А честные производители рядом с показателем скорости еще помечают, что данные получены в лабораторных условиях, где нет ни одной помехи», - добавил Олег.

Что еще влияет на скорость передачи данных? LAN-порты практически не обрабатывают информацию (точнее, процессор задействован минимально), а WAN оказывается куда более требовательным к производительности устройства - маршрутизатора. Соответственно, встает вопрос цены - чем мощнее процессор, тем она выше даже при остальных «заурядных» характеристиках.

«Далее - оконечное устройство: ноутбук, компьютер, телевизор, приставка. 2017 год на дворе, и гигабитные сетевые карты имеются во всех более-менее современных ПК. С остальными устройствами есть нюансы, особенно если в том же лэптопе установлен „бережливый“ мобильный процессор».

Многое, если не все, зависит от того, чем занят пользователь в сети. При серфинге утилизировать даже часть тех же 100 мегабит будет нереально - достаточно 5. Если смотрит видео, качает файлы, играет в онлайн-игры, то 50 Мбит/с хватит с лихвой. Но здесь речь уже идет не только о скорости передачи данных, но и о возможностях того же компьютера и кодеков: «Хочешь посмотреть 4K через интернет, а оно не идет или переключается на Full HD? Оказывается, что абонентское устройство попросту не тянет такой контент». Практика показала, что YouTube отдает 4K-контент без задержек (на тарифных 50 мегабитах нередко приходилось ждать загрузки). То же и с 8K, но с ним не справляется уже компьютер, показывая слайд-шоу.

С технической точки зрения, для потоковой передачи 4K-контента будет достаточно канала в 50 Мбит/с - при корректно построенных маршрутах. Сегодня в домашних хозяйствах, как правило, существует единственный потребитель видео сверхвысокой четкости - телевизор. Да и тех единицы. Ну и мониторы, которых, вероятно, больше, но преимущества 4K-фильмов, которые днем с огнем не сыщешь, на небольшой диагонали теряются. Однако со временем потребность в них сформируется.

Загрузка - 5%

Если исходить из моделей использования интернета, то даже при подключении гигабита паттерн поведения пользователя практически не изменится: можно побаловаться с тестами, загрузить пару игр, фильмов, а потом вернуться к привычному укладу («качков» и организаторов «домашних сетей» в расчет не берем).

С нами согласен и Олег Гаврилов: «Сейчас уже не модно качать „про запас“. Все можно посмотреть в онлайне».

Объективно так и есть, но даже без него потребление интернета в моем случае не выросло. Конечно, в первые дни трафик показал новые рекорды - за время пользования гигабитным каналом я скачал всего на 48 ГБ больше, чем обычно. И то за счет усиленных тестов. Затем потребление трафика постепенно упало до прежних значений.

Сегодня крупные белорусские операторы, предоставляющие доступ в интернет, все активнее смотрят в сторону технологии GPON (в отличие от Ethernet, это означает «оптика в квартиру», а не «оптика в дом»). Она обладает бóльшими возможностями и, среди прочего, не требует регулярной замены пассивной инфраструктуры при повышении скоростей.

Логично предположить, что с распространением в Беларуси 4К и виртуального контента вырастет и потребность в скоростях. Но пока белорусам придется подождать.

Массачусетским технологическим университетом в мае 1993 была открыта первая в мире Интернет-газета - The Tech.

Уже к 2008 году суммарная скорость раздач превысила значение в 172 Гбит / с, что составило 1/4 всего трафика Московской точки обмена трафиком MSK-IX. Около 3 тыс запросов от клиентов в секунду - 10 миллионов в час, 240 миллионов в сутки. 40 000 тыс пакетов в сек на сетевом интерфейсе. 15 000 прерываний в секунду. 1200 процессов примерно в top-е. Загрузка на 8 ядерной машине - 10-12 в часы пик. И всё равно часть запросов дропалась. Не успевали обслуживать. К сожалению, найти современное значение peer-to-peer трафика не удалось, кто знает - поделитесь в комментариях для сравнения.

В Украине в августе 2005 года появился региональный трэкер - torrents.net.ua, необходимость создания ресурса была обусловлена отсутствием у большинства пользователей на Украине скоростного и безлимитного доступа к мировому трафику.

До сентября 2008 года трекер был закрыт для пользователей не из зоны UA-IX, поэтому количество пользователей росло невысокими темпами.

Первые хостинг-провайдеры

А что с размещением сайтов? По началу хостинг-провайдеров, как таковых, не существовало. Веб-сайты размещались на серверах университетов и организаций, имеющих постоянное подключение к сети Интернет. Отследить, что происходило в период 1991-1995 сейчас довольно проблематично, В 1995 сервис Angelfire предлагал бесплатно аж 35 КБ места под странички пользователей, а GeoCities - целый 1 МБ. Более подробно о первых шагах хостинга читайте в одноимённой статье «Первые шаги хостинга» , которая публиковалась в нашем блоге ранее и является на сегодняшний день, пожалуй, одной из самых полноценных.

$200 / месяц за 200 МБ квоты на сервере и 3000 МБ исходящего трафика (500 МБ для минимального тарифного плана), а трафик свыше лимита оплачивался из расчёта от $55 до $27 за GB). Можно было подключить и «выделенную линию» для своего сайта, тарифы были следующие: 128К - $395 / месяц, 384К - $799 / месяц, 1М - $1200 / месяц. Подключение «канала» и активация хостинга также предусматривали установочную плату в размере около одной абонплаты. В конце 2000 года этот же провайдер предложил неограниченное дисковое пространство с оплатой только за трафик и снизил стоимость трафика до $40 за 20 GB. А уже в 2002 снизил тарифы до $20, сделал трафик «безлимитным» и вновь ввёл ограничения по квоте.

Интересны также цены на аренду первых выделенных серверов в 2000:

Сервер с 8 ГБ HDD выглядит в сегодняшнее время настоящим «ископаемым». Но что говорить, я лично использовал до 2004 ПК с HDD, где полезной квоты было около 7 ГБ. И конечно же плата в $5000+ / месяц за 6 Мбит / с к серверу выглядит сейчас жутко. Позднее цена была снижена до $300 / Мбит, но все же это было не мало.

Само собой, что снижение цен на коннективность и стоимость доступа в Интернет проходило за счёт увеличения количества абонентов и построения новых каналов связи, в том числе подводных оптических магистралей. Когда сталкиваешься со всей сложностью прокладки кабелей по дну океана и узнаёшь примерную стоимость проекта, становится понятным почему 1 Мбит / с через Атлантику мог стоить $300 / месяц и даже дороже. Более подробно с историей развития магистральных подводных Интернет-сетей Вы можете ознакомиться в нашей статье:

В Украине и РФ процесс размещения собственных сайтов, начался, пожалуй, с бесплатного хостинга narod.ru от «Яндекса» , в 2000 году:

Был ещё подобный проект от mail.ru - boom.ru, но этот бесплатный хостинг не получил такого распространения, как Народ. Впоследствии бесплатный хостинг «Яндекса» был поглощён самым успешным бесплатным конструктором сайтов и хостингом 2008-2010 года - «uCoz» и по домену narod.ru теперь доступна возможность построить веб-сайт с применением инструментов «uCoz». «Яндекс» отказался от «Народа» по причине развития социальных сетей и снижению интереса к услуге построения собственных сайтов.

До 2002 года в Украине размещать собственные серверы было выгодно разве, что у провайдеров домашних сетей, хотя большинство держало свои серверы в офисах и даже дома из-за очень дорогого трафика для услуги collocation, хотя это и нарушало условия предоставления услуг для домашних абонентов. Много кто просто предпочитал использовать для этих целей обычные стационарные компьютеры и не тратить деньги на «серверное» железо. Такие аксакалы встречаются и в наши дни. Но если тогда понять почему хочется сделать себе «хостинг» дома было можно, то сейчас это понять сложно. И речь не о людях, которые любят заниматься тестами чего-либо и для этого нуждаются в сервере дома.

Ситуация за рубежом была получше, ведь там Интернет стал доступным для населения раньше и процесс развития был начат раньше. Нидерланды постепенно становятся «меккой» для размещения серверов, так как предлагают хорошее географическое положение, а значит связность со множеством операторов, низкие цены на электричество, лояльное законодательство, способствующее росту IT-cектора.

Так в 1997 году два пилота коммерческих авиалиний решили основать компанию, которая помогала другим компаниям быть представленными в Интернете, создав Интернет-каталог, а также оказывала услуги по созданию и размещению веб-сайтов и подключению к сети Интернет. В Интернет-архиве сохранилась версия веб-сайта 1998 года , которая впрочем не содержала ничего, кроме контакта:

Хотя, как мы видим, был другой ход - количество включенной оперативной памяти стало гораздо меньше по умолчанию:)

В это же время в Украине один из крупнейших кабельных провайдеров Интернет и телевидения - «Воля», осознал, что строительство собственного дата-центра является огромной необходимостью. Так как абоненты домашнего Интернет в основном «качают» трафик, при этом исходящий канал остаётся практически свободным и неиспользованным. А это сотни мегабит, которые вполне можно было бы продать, разместив выделенные серверы абонентов. Плюс, возможно неслабо секономить, так как масса абонентов могла бы использовать ресурсы, размещаемые в дата-центре, вместо закачки с дорогих зарубежных серверов.

Так возник дата-центр «Воля», который уже в 2006 году предложил следующие условия :

Фактически предложив украинский трафик без учёта, с оплатой за потреблённый зарубежный трафик. Примечательно, что входящий зарубежный трафик стоил на порядок дороже исходящего, оно и понятно, ведь он использовался абонентами домашнего Интернет. Плюс, как правило для серверов, которые генерируют трафик, запросный трафик небольшой и составляет от 2 до 30% от исходящего, в зависимости от типа ресурсов, которые размещаются на сервере.

Так, если это веб-страницы с большим количеством элементов, то количество запросного трафика выше, так как происходит подтверждение успешной загрузки каждого из элементов, что приводит к увеличению роста входящего к серверу трафика. Также входящий трафик может генерироваться абонентами в случаях, когда они загружают что-либо на сервер. При скачивании файлов % входящего трафика незначителен и составляет менее 5% от исходящего в большинстве случаев.

Интересен также момент, что размещение собственного сервера в дата-центре «Воля» является просто невыгодным, так как стоимость такая же, как и при аренде. По сути дата-центр «Воля» предлагает серверы разного класса в аренду бесплатно, в зависимости от выбранного тарифного плана.

Почему серверы могут быть бесплатными? Ответ очень прост. Оборудование стандартизировано, закупается большими партиями. По сути в таком варианте это всё легче обслуживать, проще администрировать, автоматизировать, меньше человекочасов требуется. При размещении же серверов абонентов на «colo» появляется ряд проблем, начиная от того, что сервер может быть не стандартным и не поместиться в стойке, придётся выделять больше юнитов для размещения, чем планировалось изначально или же отказывать абоненту, ссылаясь на нестандартный корпус, заканчивая тем, что нужно допускать абонента на площадку, предоставлять возможность проводить физические работы с сервером, хранить запасные комплектующие на площадке и допускать инженеров в случае необходимости замены.

Таким образом «colo» получается дороже в обслуживании и предоставлять его по тарифам ниже для дата-центра лишено смысла.

В России в это время дата-центры пошли дальше и начинают предлагать условно неограниченный трафик бесплатно. К примеру, Агава предлагет следующие условия :

Входящий и исходящий трафик - неограничен и полностью бесплатен. Должны выполняться следующие условия:

Входящий трафик не должен превышать 1/4 от исходящего.
Исходящий зарубежный трафик не должен быть больше исходящего российского .
Примечание: трафик делится на российский и зарубежный по географическому признаку.
Невыполнение этих условий оплачивается по следующим тарифам:

Превышение входящего на 1/4 исходящего оплачивается по тарифу 30 руб./ГБ.
Превышение исходящего зарубежного над исходящим российским оплачивается по тарифу 8,7 руб./ГБ


Примечательно, что для простоты учёта в дата-центре не стали заморачиваться со списком сетей, не принадлежащих к MSK-IX, SPB-IX (точкам обмена трафика в Москве и Питере), которые к тому же уже давно были объединены между собой, чтоб обеспечить хорошую коннективность Питера с М9 или М10 (точками обмена трафика в Москве) и наоборот. Так как в регионах Интернет был ещё мало распространён и % трафика был реально небольшой, особенно по выделенным линиям. Что говорить, Норильск получил собственное волокно только в сентябре 2017 года , только в этом году, и стал последним крупным российским городом, который получил собственную ВОЛС! Стоимость проекта составила порядка 40 млн долларов США, общая протяженность ВОЛС из Нового Уренгоя 986 км, пропускная способность 40 Гбит / с с возможностью расширения до 80 Гбит / с в будущем.

Забавно смотреть, как в 2017 году, некоторые люди способны радоваться высокоскоростному Интернету, который был доступен для большинства из нас уже более 10 лет назад:

Ну, во-первых, я уже начала смотреть youtube, до этого я смотрела его раз в год, когда ездила в Москву. Я прямо открывала так… и меня можно было не вытащить, а если там ещё заходила в torrent и что-то качала, то это вообще… И сейчас я могу спокойно смотреть. Допустим выходит видео, я его посмотрела раз в неделю и мне не надо этот весь набор информации смотреть за раз. И я могу по скайпу общаться с людьми! Это вообще прям! Я иду такая и снимаю: «я иду ребята, смотрите это зима!», единственный минус - IPhone на морозе вырубается.

О самом проекте ВОЛС Вы можете посмотреть подробное видео здесь: часть 1 , часть 2 , часть 3 , часть 4 . Единственное, учтите, что журналисты допустили неточности, тот же спутниковый канал по их словам был всего 1 Гбит / с на город, хотя на самом деле общий трафик до введения ВОЛС был порядка 2,5 Гбит / с. Ну и нужно понимать, что проблема была не только в скорости, а сколько в высоком пинге, который получался при использовании спутникового Интернет, на который вновь пришло вернуться в момент аварии на ВОЛС .

В конце 2006 в РФ появляются первые сайты с фильмами онлайн, файлообменники и прочие подобные ресурсы, а для того, чтоб уменьшить расходы на зарубежный трафик, так как украинский трафик может быть внушительным и не укладываться в прописанные той же Агавой соотношения, часть серверов крупные проекты стараются разместить в дата-центрах с подключением к UA-IX либо создают дополнительный российский трафик искусственно, применяя torrent"ы, которые раздавались исключительно российским пользователям, а в некоторых случаях файлообменники, которые были доступны исключительно для российских IP-адресов. В результате, если в Украине хотелось качать полноценно и на хорошей скорости, многие из пользователей покупали российский VPN, так как скорость на тот же ifolder.ru была выше всегда из РФ:

Файлообменники, несмотря на популярность torrent, приобретают взрывную популярность, так как скорость скачивания с них оказывается зачастую гораздо выше, нежели при использовании torrent, при этом не нужно проводить раздачи и поддерживать рейтинг (когда ты отдаёшь больше, чем качаешь, или хотя бы не более, чем в 3 раза меньше). Всему виной ассиметричный DSL канал, когда скорость на отдачу была значительно ниже скорости на приём (в 10 раз и более), ну и нужно не забывать, что не каждый пользователь желал «сидировать» и хранить множество файлов у себя на компьютере.

Так, «Wnet» оплачивал абоненту украинский трафик из расчёта $1 за ГБ, при этом зарубежный трафик стоил абоненту $10 за ГБ при условии, что соотношение исходящего трафика ко входящему - 4/1. Безусловно - это было всё еще значительной платой, ведь трафик оказывался бесплатным только при наличии в 10 раз большего украинского трафика. Таким образом, чтоб генерировать бесплатно 9 Мбит / с в зарубеж, нужно было генерировать 90 Мбит / с в Украину. Что совсем было непохожим на предложение Агавы, где достаточно было, чтоб зарубежный трафик не превышал российский.

Потому ранее рассмотренное предложение от дата-центра «Воля» было куда более выгодным, нежели предложение от «Wnet», который к тому же, 1 октября 2006 года принял решение о выходе из украинской точке обмена трафиком UA-IX, так как UA-IX отказывалась продавать больше портов, которые были необходимы «Wnet», возможно в следствии «пиринговой войны», а именно лоббирования интересов других провайдеров, которым «Wnet» начал составлять конкуренцию, а может быть и в следствии отсутствия тех. возможности предоставления дополнительных портов, а может быть потому, что «Wnet» нарушал соглашение и строил пиринговые включения с другими участниками точки обмена (особенность правил обмена

Благодаря чему в 2008 году «Воля» уже обладала 20 Гбит / с подключением в UA-IX и 4 Гбит / с в мир от нескольких магистральных операторов. Дальнейшее развитие рынка хостинг-услуг можно отследить уже в нашей истории:

Так как мы начали предоставлять хостинг-услуги с 2006 года среди пользователей нашего ресурса, а с июля 2009 года выделили услуги в отдельный проект - ua-hosting.com.ua, который в будущём вышел на международный уровень и полностью перебрался в зарубеж и ныне известен под брэндом ua-hosting.company и доступен по короткому домену http://ua.hosting .

Стоит отметить, что за последние 10 лет рынок претерпел огромных изменений, и причина этого не только в значительном снижении стоимости магистральных каналов, сколько в перераспределении аудитории среди множества проектов, за счёт закрытия некогда популярных проектов. Такие успешные ресурсы, как файлоообменники, которые занимали топовые места по посещаемости в рейтинге Alexa, отошли в небытие, по многим причинам, но в основном - из-за непрекращающейся войны с правообладателями.

Так в Украине знаменитый некогда ex.ua, генерирующий свыше 15% всего трафика украинской точки обмена UA-IX (по сути точки обмена трафиком в Киеве, так как региональные операторы редко когда были представлены, особенно с появлением точки обмена Giganet и DTEL-IX) был закрыт после закрытия не менее знаменитого fs.to, который покупал в своё время 100 Гбит / с в Нидерландах у нас. А дело с некогда знаменитым megauload было ещё более резонансным, когда из дата-центра в Нидерландах, где мы размещаемся, было изъято свыше 600 серверов этого файлообменника. Rutracker был заблокирован на территории РФ Роскомнадзором, а torrents.net.ua в Украине прекратил своё существование из-за боязни репрессий.

Аудитория ушла в Youtube, Инстаграм и в другие соц. сети. Сайты для взрослой аудитории, пожалуй, не потеряли популярности, только теперь заработок на тизерной рекламе для наших веб-мастеров из РФ и Украины потерял всякий смысл из-за цен на рекламу и оплачивать зарубежные каналы, цена на которые, к слову, снизилась в разы в сравнении даже с 2012 годом, когда казалось, что дешевле уже быть не может, стало довольно проблематично.

Ситуация на рынке магистральных каналов, из чего зависит относительная стоимость доставки трафика

Как мы могли понять, ознакомившись с информацией, представленной выше, цена на трафик в Интернет зависит от того в какую точку необходимо доставить трафик, насколько популярно это направление, с какой скоростью на поток необходимо передать данные и с какой задержкой. А также цена будет зависеть от того по каким каналам связи трафик будет проходить, что определяет то, насколько прямой маршрут и какой приоритет трафика будет в том или ином случае, который в свою очередь определит конечное значение latency (пинга) из одной точки в другую.

К примеру, 10 Гбит / с из Нового Уренгоя в Норильск будут стоить явно не $2000 / месяц и даже не $6000 / месяц, так как в построение ВОЛС было инвестировано свыше $40 млн. Проект предлагается окупить за 15 лет, таким образом ежемесячная стоимость канала в 40 Гбит / с составляет 40/15/12 = $0,22 млн или $55 000 / месяц за 10 Гбит / с и это ещё не канал в Интернет, а только стоимость доставки трафика по качественной ВОЛС между двумя удалёнными населёнными пунктами. И эти деньги нужно брать сейчас с населения Норильска, которое будет смотреть тот же Youtube (трафик к которому будет стоить ещё дороже, так как нужно будет оплатить магистралам за доставку вплоть до сетей Youtube), а значит трафик с него будет довольно дорогим и активность населения там будет сдерживаться этой ценой. Существует вариант, когда Youtube может захотеть быть к своим пользователям «ближе» и захочет оплатить часть расходов на канал к ним вместо них, в таком случае стоимость доступа к ресурсу Youtube для населения Норильска может стать ниже. Этот пример наглядно демонстрирует то из чего может состоять цена на доступ к конкретным ресурсам сети Интернет. Всегда кто-то платит за Ваш трафик и если это не Вы - то либо рекламодатели и ресурсы которые генерируют этот трафик, либо же магистральный провайдер или просто Интернет-провайдер, которому выгоден трафик из этого направления (скажем для того, чтоб получить скидки на другие направления или какие-либо налоговые льготы, что может быть выгодно в случае с Норильском или просто потому, что куплен довольно широкий канал для получения скидки на доставку трафика и он простаивает).

Магистральные операторы I уровня, такие, как Cogent, Telia, Level 3, Tata и другие отличаются тем, что берут деньги за доставку трафика со всех, кто к ним подключен, потому трафикогенераторы страются обмениваться трафиком с провайдерами, где находится их аудитория напрямую. Таким образом, возникают ситуации, когда порождаются так называемые пиринговые войны, в том числе и между магистральными операторами первого уровня и крупными генераторами, когда приоритет отдаётся конкретным потребителям, в то время как для других может искусственно завышаться цена сотрудничества, с целью задавить конкурента, либо же просто с целью обогащения, так как других вариантов у генератора трафика попросту нет. Потому очень часто возникали споры, в том числе судебные, так как некоторые компании не сохраняли сетевой нейтралитет и пытались сделать это очень завуалированно.

Так до сих пор не разрешен спор между Cogent и Google касательно трафика по IPv6 протоколу, из-за чего по-просту невозможно сделать пиринг между компаниями для прямого обмена . Cogent требует денег с Google за трафик в их сети, Google же хочет пириться бесплатно, так как масса абонентов Cogent (дата-центры, провайдеры домашнего Интернет) являются активными потребителями трафика из сетей Google, хотя к слову, IPv4, а не IPv6, что уменьшило бы задержку и снизило стоимость трафика для этих абонентов, при условии роста % IPv6 трафика. Но Cogent это видимо невыгодно, так как он магистральный провайдер I уровня, и внешний трафик из его сетей оплачивается магистральными провайдерами второго (платят магистральным провайдерам I уровня и получают прибыль с провайдеров третьего уровня) и даже третьего уровня (платят провайдерам второго уровня и получают деньги с конечных клиентов).

Для того, чтоб понимать из чего складывается конечная цена трафика для ресурса, рассмотрим ситуацию на примере популярного сервиса Cloudflare, суть которого в том, чтоб сделать веб-сайты «ближе» к своей аудитории, помочь снизить нагрузку на инфраструктуру, закешировав статическую информацию и отфильтровать возможные DDOS-атаки.

Разумеется, что Cloudflare размещает серверы во всех регионах, где есть спрос на трафик, то есть практически по всему миру. А для того, чтоб сэкономить на трафике, старается заключать пиринговые соглашения с региональными провайдерами, которые способны доставить трафик от Cloudflare к пользователям бесплатно, в обход дорогих магистральных операторов Tier I уровня, которые взимают плату за трафик в любых случаях. Почему местным провайдерам это выгодно? При значительных объемах трафика им нужно платить также, как и Cloudflare, операторам Tier I уровня значительные средства за доставку трафика, куда выгоднее подключить свой канал «напрямую» (вложиться раз в строительство) и получать трафик бесплатно, нежели платить ежемесячно большие деньги магистральному оператору. Даже в случаях, когда прямой пиринг невозможен, бывает выгоднее подключиться через сети других транзитных провайдеров, где стоимость трафика будет гораздо ниже стоимости трафика при передачи через Tier I. Да, маршрут становится не очень прямым, возможно растёт незначительно пинг, возможно немного падает скорость передачи на поток, но качество может оставаться всё еще приемлемым для осуществления такой экономии.

Но не всегда есть возможность заключать пиринговые соглашения, всё же в некоторых регионах Cloudflare вынужден покупать довольно большой % коннективности у магистральных провайдеров, причём цена трафика весьма варьируется, в зависимости от региона. В отличие от некоторых облачных сервисов, таких как Amazon Web Services (AWS) или традиционных CDN, которые оплачивают трафик зачастую чуть ли не потерабайтно, Cloudflare платит за максимальное использование канала в течении определённого периода времени (так называемый «поток трафика»), на основе максимального количества мегабит в секунду, которые используются в течении месяца у любого из магистральных провайдеров. Такой метод учёта называется burstable, а частный случай - 95th percentile. 95 перцентиль - это метод, используемый для обеспечения гибкости и пакетного использования ширины канала. Это позволяет потребителю услуг превышать установленную тарифом полосу пропускания на 5% от всего времени пользования каналом, без увеличения стоимости. Например, если Ваш тариф предполагает использование полосы пропускания в 5 Мбит/с, то планка предельно допустимой ширины канала может быть превышена на 36 часов каждый месяц (5% от 30 дней). Используемая полоса пропускания измеряется и записывается каждые 5 минут в течении месяца, как усреднённое значение за этот малый пятиминутный промежуток времени. Замер используемой полосы пропускания в каждом временном интервале происходит путём деления количества переданных данных за интервал на 300 секунд (продолжительность указанного интервала). В конце месяца убирается 5% максимальных значений, а далее из оставшихся 95% выбирается максимальное число и именно это значение используется для расчёта оплаты за ширину канала.

Существует легенда, что в ранние дни своего существования Google использовал контракты с 95 перцентилем, чтоб проводить индексацию с очень высокой пропускной способностью в течении одного 24-часового периода, а в остальное время интенсивность потребления трафика была значительно ниже, тем самым обеспечивалась значительная экономия на оплате потребляемых каналов. Умная, но несомненно не очень долговечная стратегия, так как впоследствии всё же пришлось строить собственные дата-центры и даже каналы, чтоб индексировать ресурсы более часто и меньше платить за межконтинентальный транспортный трафик.

Ещё одна «тонкость» заключается в том, что обычно Вы платите магистральным провайдерам за преобладающий трафик (входящий или исходящий), что в случае с CloudFlare позволяет полностью неоплачивать входящий трафик. Ведь CloudFlare является кеширующим прокси-сервисом, в следствии чего исход (out) обычно превышает вход (in) примерно в 4-5 раз. Поэтому тарификация полосы пропускания происходит исключительно по значениям исходящего трафика, что позволяет полностью не платить за вход. По этой же причине сервис не взимает дополнительную плату, когда сайт попадает под DDOS-атаку. Атака безусловно увеличивает потребление входящего трафика, но если атака не очень велика, входящий трафик по-прежнему не будет превышать исходящий и, следовательно, это не увеличит стоимость используемых каналов.

Большая часть пирингового трафика обычно бесплатна, чего не скажешь про трафик с сервиса Netflix, который вынужден был после долгих прений оплатить Verizon и Comcast за пиринговые включения для обеспечения возможности приемлемого по скорости видео-стримминга для пользователей из сетей этих операторов.

На схеме выше мы можем видеть, как растёт количество бесплатных пиринговых включений Cloudflare с течением 3 месяцев, как c IPv4, так и с IPv6 версией Интернет-протокола. А ниже, также в течении 3 месяцев, мы можем наблюдать глобальный рост пирингового трафика Cloudflare, который в настоящий момент использует свыше 3000 пиринговых включений и экономит порядка 45% средств на оплату дорого магистрального транзитного трафика.

Cloudflare не разглашает сколько точно платит за транзитный магистральный трафик, однако приводит сравнительные значения из разных регионов из которых можно сделать примерный вывод о размере затрат.

Рассмотрим в начале Северную Америку. Давайте предположим, что в качестве эталона в Северной Америке мы примем смешанное среднее значение для всех поставщиков транзита в размере $10 за Мбит / с в месяц. На самом деле оплата будет меньше этой суммы и будет зависеть от объемов, а также от выбранного магистального оператора, но она может служить эталоном для сравнения стоимости с другими регионами. Если мы принимаем этот показатель, то каждый 1 Гбит / с будет обходиться в 10 000 долларов в месяц (опять же, не забывайте, что это значение выше реального и характерно, как правило, в случае розничной покупки, это всего лишь эталонный показатель, который позволяет понять различие).

Эффективная цена за пропускную способность в регионе будет являться смешанной ценой стоимости транзита ($10 за Мбит / с) и пирингового трафика ($ 0 за Мбит / с). Каждый байт, переданный по пирингу, является потенциальным транзитным байтом, за который не нужно платить. В то время, как Северная Америка имеет одну из самых низких цен на транзит в мире, она также имеет более низкие средние показатели пиринга. На приведенном ниже графике показано соотношение между пиринговым и транзитным трафиком в регионе. И хотя за последние три месяца для Cloudflare оно стало лучше, Северная Америка по-прежнему отстает от всех других регионов мира с точки зрения пиринга.

Таким образом, в то время, как процент пирингового трафика у Cloudflare превышает 45% глобально, в северно-американском регионе он составляет всего лишь 20-25%, что делает эффективную стоимость 1 Мбит / с без учёта скидок равной $7,5-8 за Мбит / с. В результате чего Северная Америка является вторым регионом в мировом рейтинге регионов с самым дешевым трафиком. Но где же трафик самый дешевый?

Мы уже рассматривали ранее Европу, где уже очень давно, в виду исторической концентрации населения в определённых регионах, существует масса точек обмена, именно за счёт этого удаётся получить больший % пирингового трафика, и, как результат - самый дешевый трафик в мире, так как % транзитного трафика у того же Cloudflare находится на уровне 45-50%.

В результате чего наша эталонная стоимость падает до значений $4,5-5 за Мбит / с и менее. % пирингового трафика зависит непосредственно от количества участников самых крупных точек обмена в Европе - AMS-IX в Амстердаме, DE-CIX во Франкфурте и LINX в Лондоне. В Европе точки обмена трафика в основном поддерживаются некоммерческими организациями, в то время, как в США, точки обмена в основном коммерческие, та же Equinix в Нью-Йорке, что значительно влияет на количество участников этих точек обмена и как следствие пирингов, которые готовы подписывать пиринговые соглашения. Для сравнения в Амстердаме по статистике на 2014 год насчитывается порядка 1200 участников, в то время как в США всего 400.

Соотношение пирингового трафика к транзитному в азиатском регионе примерно такое же, как и в Европе, Cloudflare демонстрирует график со значением близким к 50-55%. Однако стоимость транзитного трафика в 6-7 раз выше в сравнении с эталонной стоимостью трафика в Европе и составляет аж $70 за Мбит / с. Таким образом эффективная стоимость трафика находится в пределах $28-32 за Мбит / с, что в 6-7 раз выше, нежели в Европе.

В целом стоимость транзитного трафика в азиатском регионе выше за счёт нескольких факторов. Основным является тот, что в регионе меньше конкуренция, а также больше провайдеров-монополистов. Во-вторых рынок Интернет-услуг менее зрелый. И наконец, если Вы посмотрите на карту Азии, то увидите много чего - вода, горы, сложнодоступные малонаселённые регионы. Запуск подводных кабелей обходится значительно дороже, нежели прокладка волоконно-оптического кабеля в самом труднодоступном регионе, хотя это также стоит не дёшево, поэтому стоимость межконтинентального транзита и стоимость транзита по удалённым территориям компенсируется стоимостью транзита внутри остальной части континента, которая искусственно завышается с целью покрытия расходов на внешнюю и внутреннюю «удалённую» коннективность.

Латинская Америка стала новым регионом, в котором появилось присутствие Cloudflare и уже в течении 3 месяцев после этого % пирингового трафика вырос с 0 до 60%.

Однако стоимость транзитного трафика также, как и в Азии, очень высока. Транзитный трафик обходится в 17 раз дороже транзитного трафика в Серверной Америке или Европе, и эффективная стоимость находится на уровне $68 за Мбит / с, что в два раза выше, нежели в азиатском регионе, несмотря на то, что процент пирингового трафика здесь один из лучших в мире. Проблема Латинской Америки ещё в том, что во многих странах отсутствуют дата-центры с политикой «carrier neutral», когда участники могут свободно коммутироваться и обмениваться трафиком друг с другом. Наиболее развитой в этом плане оказалась Бразилия и после того, как Cloudflare построил собственный дата-центр в Сан-Паулу, количество пирингов возросло значительно, что и позволило достичь 60% значения обменного трафика.

Наиболее дорогим для Cloudflare является, пожалуй, трафик в Австралии, так как здесь задействовано огромное количество подводных магистралей для доставки трафика. И хотя % пирингового трафика внутри региона достигает 50%, Telstra - оператор-монополист на австралийском рынке телекоммуникационных услуг, не позволяет снизить стоимость транзитного трафика внутри страны ниже $200 за Мбит / с ввиду большой распределённости населения по региону, что в 20 раз выше эталонного значения в Европе или США. В результате эффективная стоимость трафика в 2015 году находится на уровне $100 за Мбит / с и является одной из самых дорогих в мире. А расходы на транзитный трафик составляют примерно ту же сумму, сколько Cloudflare тратит на оплату трафика в Европе, хотя население Австралии в 33 раза меньше (22 млн против 750 млн в Европе).

Интересно, что в Африке, несмотря на высокую стоимость транзитного трафика - в районе $140 за Мбит / с Cloudflare удалось договориться с 90% провайдерами о пиринге, в результате чего эффективная стоимость трафика оказалась на уровне $14 за Мбит / с. Благодаря чему веб-сайты из Лондона, Парижа и Марселя стали открываться довольно быстро, а присутствие в Западной Африке было увеличено, обеспечив более быстрый доступ к ресурсам Европы для жителей той же Нигерии, где насчитывается около 100 млн Интернет-пользователей. А в регионе Middle East процент пирингового трафика и вовсе достиг 100%, что позволило сделать его самым дешевым для CloudFlare в мире, если не учитывать затраты на строительство и поддержку дата-центров.

Уже через 2 года, в конце 2016, цены в самом дорогом регионе - Австралии и Океании, стали на 15% ниже, что позволило получить цену трафика на уровне $85 за Мбит / с. Таким образом, в случае с Cloudflare, статистика стала примерно следующей:

Интересно, что сегодня, существует 6 самых дорогих магистральных провайдеров - HiNet, Korea Telecom, Optus, Telecom Argentina, Telefonica, Telstra, трафик с которых стоит для Cloudflare на порядок дороже, нежели трафик от других поставщиков коннективности по всему миру, и которые отказываются обсуждать более низкие цены на транзит. У того же Cloudflare суммарный трафик в эти 6 сетей находится на уровне менее 6% от общего потребления, но почти 50% средств, выделяемых на оплату суммарной коннективности, приходилось на оплату трафика из этих 6 самых дорогих сетей. Разумеется, что так не могло продолжаться вечно и Cloudflare приняло решение перенаправить трафик своих «бесплатных» пользователей в более удалённые дата-центры (в Сингапур или Лос-Андежелес), вместо присутствия в Австралии и Новой Зеландии, где стоимость внешних каналов более здравая, в результате чего, по иронии судьбы, та же Telstra стала платить больше, так как их подводная магистраль оказалась более загруженной, после этого перехода, что возможно послужит хорошим сигналом для снижения цен для таких ресурсов, как Cloudflare, в регионе.

Абсолютные значения стоимости доставки трафика у транзитных провайдеров в различных регионах

Telegeography - замечательный ресурс, помогает увидеть не только рост подводных магистральных сетей , но и то, какие цены в среднем предлагаются на рынке по доставке трафика, вычисляя медиану при использовании транзитных магистральных провайдеров в том или ином регионе. Для того, чтоб показать Вам современный порядок цен мне пришлось заказать от них небольшой отчёт, в результате анализа данных в котором были получены следующие результаты.

Как видим стоимость услуги Dedicated Internet Access (DIA) находится на максимальном уровне в Мумбаи, Сан-Паулу и Каракасе в данный момент. В то время, как в Европе и США эта стоимость находится на уровне $6 и $8 за Мбит / с соответственно.

В соответствии с этим возникает логичный вопрос, а как же при таких ценах удаётся в нынешнее время предоставлять в аренду серверы, скажем конфигурации 2 х Intel Dodeca-Core Xeon E5-2650 v4 128GB DDR4 6 x 480GB SSD с каналом 1Gbps и лимитом трафика 100 ТВ по цене $249 / месяц, что эквивалентно 300+ Мбит / с реального потребления, если стоимость 1 Мбит / с находится на уровне $6 / месяц за мегабит в среднем, исходя из данных текущего отчёта?

Каким образом трафик в дата-центрах может продаваться дешевле?

Крупные дата-центры, такие, как EvoSwitch в Амстердаме, в котором мы размещаемся, имеют собственную развитую магистральную сеть волокон, что позволяет значительно сэкономить на доставке трафика в определенные регионы, плюс увеличивает количество возможных пирингов. В 2017 году наш партнёр стал обладателем одной из самых масштабных и качественных сетей.

Как можем видеть из иллюстрации, общая ёмкость сети достигла 5,5 Тбит / с, 36 точек присутствия появилось по всему миру, свыше 2000 пиринговых включений, включения в 25 точек обмена трафиком напрямую. Всё это, безусловно, оказывает влияние на эффективную стоимость трафика, которая, как мы помним, является суммой стоимости платной магистральной транзитной коннективности и бесплатной пиринговой, а также может быть уменьшена за счёт взимания оплаты за пиринговые включения с провайдера-потребителя трафика. То есть трафик может оплачивать не только генератор трафика, но и получатель - провайдер, в сеть которого генерируется этот трафик и который заинтересован в организации пирингового включения для того, чтоб меньше платить магистральным провайдерам и сэкономить на трафике по той же схеме, по которой экономит дата-центр. Помимо прочего у дата-центра почти всегда существует возможность продажи излишнего «входящего» Интернет-канала пользователям домашнего Интернет, которые в основном нуждаются как раз в таком трафике для доступа в сеть Интернет и который, по сути, является неиспользуемым в большинстве дата-центров.

Тем не менее даже такая столь обширная сеть не позволяет сделать стоимость трафика бесконечно низкой. Поэтому, какие бы гарантированные условия на трафик дата-центр не предлагал, нужно понимать, что конечная низкая стоимость на трафик достигается за счёт продажи полосы с разумной степенью oversell"a, то есть продажи большей коннективности, чем есть на самом деле, но с жестким учётом реальных потребностей пользователей дата-центра в трафике в гарантированном случае, когда каждому пользователю обеспечивается его гарантированная полоса в нужный для него момент времени. Причём сэкономить на трафике можно тем больше, чем больше пользователей обслуживается и тем больше, чем больше пиринговых и магистральных каналов подключено к сети.

Рассмотрим пример. 10 пользователей нуждаются в гарантированном канале 100 Мбит / с к их серверам, однако используют коннективность не всегда на 100% и довольно частно не одновременно. После анализа реального потребления оказывается, что одновременно все десять пользователей потребляют не более 300 Мбит / с трафика в пиках и закупать 1 Гбит / с выделенной полосы, а с учётом резервирования - 2 Гбит / с у разных операторов и тарифицировать каждого пользователя за выделенный канал в полном объеме (по сути двойном) становится не целесообразно. Гораздо разумнее закупить в три раза меньше - 700 Мбит / с трафика, если закупка проводится у двух независимых магистральных операторов, что поможет обеспечить выделенный канал 100 Мбит / с каждому из 10 клиентов с указанным уровнем потребления, да и ещё и с двойной степенью отказоустойчивости, плюс даже останется порядка 100 Мбит / с на «вырост» на случай, когда у кого-либо начнёт расти потребление трафика, что даст время на подключение дополнительных каналов. Если же трафик поставляется уже тремя независимыми магистральными провайдерами, то закупка становится ещё выгоднее, так как достаточно купить только 500 Мбит полосы, а то и менее, ведь одновременно из строя с большой долей вероятности может выйти только один канал из трёх - не более 166 Мбит / с коннективности, когда существует потребность максимум в 300 Мбит /с. Таким образом мы легко сможем получить 334 Мбит / с полосы в любой момент времени, что будет достаточным для нужд наших абонентов, даже при аварии на одном из аплинков.

В реальности ситуация гораздо проще и степень отказоустойчивости и резервирования выше, так как клиентов с каналом 100 Мбит / с зачастую не десять, а десятки тысяч. А трафика большинство использует крайне мало. Так 1000 серверов с каналом 100 Мбит / с без учёта по нашим статистическим данным потребляет в среднем только 10-15 Гбит / с в пиках, а то и менее, что эквивалентно 10-15% выделяемой им полосы. При этом всем обеспечивается возможность потреблять 100 Мбит / с в нужное им время без какого-либо учёта, а магистральных операторов, каналы от которых заведены, используется великое множество. Пиринговых включений, само собой, что ещё больше, что делает коннективность зачастую более недорогой и качественной и исключает возможность потери огромной части коннективности сразу. За счет этого снижается необходимый %, выделяемый на обеспечение отказоустойчивости, с 50 до 5% и менее. Разумеется, что есть клиенты, которые загружают свои каналы «в полку», но есть и те, которые потребляют крайне мало трафика, при этом арендуют выделенный сервер с 100 Мбит / с каналом без учёта, так как так удобно - не нужно боятся дорогой платы за превышение или просто абоненты не понимают сколько им реально трафика необходимо и как его рассчитывать. По сути те пользователи, которые не потребляют всю выделяемую им полосу, оплачивают трафик пользователей, которые используют канал в полной мере.

Помимо прочего нужно помнить ещё и о суточном распределении посещаемости Интернет-проектов, что также оказывает влияние на удешевление стоимости. Так как, если у Вас наблюдается загрузка канала на 100% в вечернее время, в момент максимума посещений Вашего ресурса, то в остальное время суток загрузка канала будет вполне вероятно гораздо ниже 100%, вплоть до 10-20% в ночное время и освободившийся канал можно будет использовать для других нужд (генерацию трафика в другой регион не рассматриваем, так как в этом случае скорее всего возникнет дорогая оплата за транспорт). В противном случае посетители в пиковые часы начнут испытывать проблемы, уходить с веб-сайта и посещаемость неминуемо упадёт по причине ухудшения поведенческих факторов и понижения позиций ресурса в результатах поисковой выдачи, если трафик проекта в основном поисковый.

В случае гигабитных включений, конечно же, % утилизации каналов был выше 10-15% в начальный период существования предложения и мог доходить до 50% и более, так как такие серверы ранее заказывались абонентами-трафикогенераторами, когда 100 Мбит / с порта им не хватало, а гигабитный порт стоил значительно дороже и не было смысла обычным пользователям за него платить, когда в нём не было реальной необходимости. В наши дни, когда стало возможным получить 1 Гбит / с и даже 10 Гбит / с дома, а различие между стоимостью свитча, который поддерживает 1 Гбит / с и 100 Мбит / с стало незначительным, оказывается гораздо более выгодным предоставить каждому доступ к каналу 1 Гбит / с, даже тогда, когда он реально в нём не нуждается, нежели ограничивать пропускную способность. Только для того, чтоб клиент как можно быстрее прокачал нужный ему объем информации и, как следствие, намного более быстро освободил полосу для следующего абонента в случаях, когда ему не нужно генерировать трафик постоянно. Именно потому процент утилизации трафика для серверов с каналом 1Gbps и лимитом 100ТБ в реальности оказался гораздо менее 10%, так как большинство пользователей, само собой, не нуждаются в таком канале всё время и освобождают канал в 10 раз быстрее для использования последующими абонентами.

Применяя такой принцип предоставления Интернет-каналов возникает явная необходимость в мониторинге потребления трафика в отдельных сегментах сети ЦОД и даже в каждой стойке, чтоб как только у кого-либо потребность в канале возростёт и резерв трафика начнёт уменьшаться, можно было добавить дополнительный канал, тем самым обеспечить гарантированный «безлимит» для всех. В целом благодаря этому подходу экономятся значительные средства на оплату внешних каналов связи и появляется возможность предлагать цены на порядок ниже, нежели без применения этого принципа и даже зарабатывать на трафике. Ведь дата-центр не может продавать трафик по фактической себестоимости, а просто обязан зарабатывать, так как тратит время и средства на обслуживание сети, ну и «здоровый» бизнес должен быть прибыльным.

Потому коэффициент oversell"a присутствует везде, в большей или меньшей степени, даже при продаже предложений с каналом 10 Gbps Unmetered к выделенным серверам, которые, казалось бы, должны были бы потреблять трафик по полной. Но реальность оказывалась другой. Мы в своё время продали свыше 50 выделенных серверов с подключением 10 Gbps Unmetered к каждому, однако общий наш генерируемый трафик едва превысил 250 Гбит / с, при том, что этот канал использовался ещё 900+ выделенными серверами с подключением 100 Мбит / с и 1 Гбит / с к каждому серверу. Именно благодаря этому мы смогли предоставить серверы с гарантированным каналом 10 Гбит / с по невероятным ценам в $3000 / месяц, а в будущем - почти в 2 раза дешевле (начиная от $1800 США). Мы были первыми, кто продавал коннективность по столь низким ценам и именно потому сумели сгенерировать так много трафика и получить массу довольных клиентов.

Cегодня мы готовы пойти ещё дальше, благодаря сотрудничеству с магистральным оператором I уровня Cogent, мы имеем возможность продать избыток коннективности в определённых сегментах их сети в Нидерландах и США ещё дешевле - от $1199 за сервер с каналом в 10 Гбит / с без учёта и от $4999 за сервер с каналом 40 Gbit / s Unmetered.

https://ua-hosting.company/serversnl - оформить заказ можно тут, если требуется локация в США - откройте запрос в тикете. Однако Нидерланды является оптимальной по связности локацией для наших регионов.

2 х Xeon E5-2650 / 128GB / 8x512GB SSD / 10Gbps - $1199

2 х Xeon E5-2650 / 256GB / 24x512GB SSD / 10Gbps - $2099

2 х Xeon E5-2650 / 256GB / 24x1TB SSD / 10Gbps - $3599

2 х Xeon E5-2650 / 256GB / 24x2TB SSD / 10Gbps - $6599

2 х Xeon E5-2650 / 256GB / 8x1TB SSD / 20Gbps - $1999
2 х Xeon E5-2650 / 256GB / 24x512GB SSD / 20Gbps - $2999
2 х Xeon E5-2650 / 256GB / 24x1TB SSD / 20Gbps - $4599
2 х Xeon E5-2650 / 256GB / 24x2TB SSD / 20Gbps - $7599

2 х Xeon E5-2650 / 256GB / 24x512GB SSD / 40Gbps - $4999
2 х Xeon E5-2650 / 256GB / 24x1TB SSD / 40Gbps - $5599
2 х Xeon E5-2650 / 256GB / 24x2TB SSD / 40Gbps - $8599

В индивидуальных случаях мы способны предложить адекватные цены и на 100Gbps Unmetered подключения, обращайтесь, если такая коннективность Вам необходима.

Конечно, мы с Cogent рассчитываем, что Вы не потребите всю выделяемую Вам полосу, этому же способствуют и предлагаемые конфигурации. В случае их использования с RAID-контроллером, потребить более 6 Гбит / с трафика очень проблематично, так как получаем «бутылочное горлышко» в виде контроллера. Однако, если использовать накопители независимо, становится возможным распределить трафик оптимальным образом. В любом случае мы обеспечиваем возможность потребления указанной полосы вне зависимости от наших с Cogent надежд. Тем более, что продаются излишки коннективности, которые в случаях непродажи просто простаивали бы. Не нужно забывать также о том, что Cogent, как магистральный провайдер, берёт денег со всех. Таким образом трафик, который сгенерируете Вы, в любом случае дополнительно оплатит провайдер, в сети которого этот трафик придёт.

Однако не стоит рассчитывать, что купив сервер с таким каналом, у Вас будет 10, 40 или 100 Гбит / с на поток, это по-просту невозможно за такие деньги, да и зачастую не нужно. Стримминг-транспорт на высокой скорости точка-точка может стоить огромных денег, в некоторых случаях $55 000 за 10 Гбит / с, как в случае с ВОЛС Новый Уренгой - Норильск, который мы рассмотрели выше. Но то, что будет обеспечена отличная коннективность в целом с сетью Интернет - это однозначно. Средняя скорость на поток для большинства проектов достаточно, чтоб находилась на уровне свыше 10 Мбит / с, что позволяет размещать проекты со стриммингом видео в качестве Ultra HD и обеспечить просмотр 1000-4000 человек «онлайн» с одного сервера.

Тем не менее в некоторых случаях скорость передачи на поток может быть значительной даже при небольшой плате за канал. Так в прошлом году в США широкое распространение получил 10 Гбит / с домашний Интернет , когда за скромную плату в $400 / месяц стало возможным получить такой «безлимитный» канал дома.

В таких случаях домашние роутеры, обеспечивающие доступ к сети по Wi-Fi, оказываются зачастую «бутылочным горлышком» (способны обеспечить подключение до 300 Мбит / с), в результате чего приходится вновь применять проводное подключение и даже устанавливать серверы дома, а также применять производительные компьютеры и накопители в них, чтоб не упереться в их возможности при использовании канала. Зачем это нужно? Много кто в наше время работает с данными из дому. James Busch, радиолог из США, проводит анализ данных пациентов из дому и новый канал экономит ему значительное количество времени.

«В среднем рентгенологическое исследование содержит порядка 200 мегабайт данных, в то время как PET сканирование и маммография в 3D могут занимать до 10 гигабайт. Таким образом мы вынуждены обрабатывать сотни терабайт данных. Мы посчитали, что экономим в среднем около 7 секунд при проведении одного исследования при применении 10 Гбит / с подключения вместо гигабитного. Казалось бы, что это немного, но если умножить на количество исследований, которое мы проводим за год, а это 20-30 тыс, то получается, что мы экономим порядка 10 дней продуктивной работы только благодаря тому, что усовершенствовали скорость подключения на порядок.»

Таким образом, если Вам нужна высокая скорость на поток при минимальных затратах - нужно размещать Ваш 10, 20, 40 или 100 гигабитный сервер, как можно ближе к пользователям. Тогда вполне вероятно, что Вы сможете генерировать в некоторые сегменты сети Интернет трафик на скорости 1 и даже 10 Гбит / с на поток.

Наше время открывает Вам уникальные возможности для новых свершений. Теперь Вы вряд ли можете сказать, что какая-то услуга хостинга или аренды выделенного сервера стоит слишком дорого, а начать собственное дело или проект никогда не было ещё так просто. Сейчас доступны самые производительные серверные конфигурации, возможности которых превосходят возможности серверов десятилетней давности до трёх порядков в некоторых случаях, а по ценам они не на много дороже хостинга 2005 года. Позволить может реальной каждый. Трафик стал стоить в тысячи раз дешевле, а скорость каналов выше. И только от Вас будет зависеть, как ими Вы распорядитесь. Придумать интересный Интернет-проект может каждый, перестаньте тратить своё время зря. Арендуйте выделенный сервер или по меньшей мере виртуальный и начните работу уже сегодня, даже если он Вам пока не нужен и Вы ничего не знаете в этом - он будет служить хорошей мотивацией идти вперёд. Используйте эти возможности для того, чтоб сделать наш мир лучше. Если даже Вы никогда не имели опыт вэб-разработки и создания Интернет-проектов, никогда не поздно начать, я когда-то начал с 0 и сгенерировал трафика больше, чем вся Беларусь! Надеюсь мой опыт будет для Вас полезен. Мы строим Интернет, присоединяйтесь!

BLACK FRIDAY ПРОДОЛЖАЕТСЯ: скидка 30% на первый платёж по промо-коду BLACK30% при заказе на 1-6 месяцев!

Это не просто виртуальные серверы! Это VPS (KVM) с выделенными накопителями, которые могут быть не хуже выделенных серверов, а в большинстве случаев - лучше! Мы сделали VPS (KVM) c выделенными накопителями в Нидерландах и США (конфигурации от VPS (KVM) - E5-2650v4 (6 Cores) / 10GB DDR4 / 240GB SSD или 4TB HDD / 1Gbps 10TB доступными по уникально низкой цене - от $29 / месяц, доступны варианты с RAID1 и RAID10) , не упустите шанс оформить заказ на новый тип виртуального сервера, где все ресурсы принадлежат Вам, как на выделенном, а цена значительно ниже, при гораздо более производительном «железе»!

Как построить инфраструктуру корп. класса c применением серверов Dell R730xd Е5-2650 v4 стоимостью 9000 евро за копейки? Dell R730xd в 2 раза дешевле? Только у нас 2 х Intel Dodeca-Core Xeon E5-2650v4 128GB DDR4 6x480GB SSD 1Gbps 100 ТВ от $249 в Нидерландах и США!

Теги: Добавить метки

Недавно я посетил интернет-форум, на котором люди обсуждали свои 1-гигабитные волоконные интернет-соединения. «Повезло им!» — подумал я. Но действительно ли в везении дело? Если вы заметили, что вместо 1 Гбит/с вы получаете порядка 80 Мбит/с, или даже меньше, проблема можем заключаться в неправильном Ethernet кабеле.

В этой статье мы расскажем, как правильно выбрать Ethernet кабель для максимальной скорости интернет-соединения.

WiFi против Ethernet

Давайте сразу выясним, что Ethernet кабель обеспечивает более высокие скорости интернет-соединений, чем Wi-Fi. Да, беспроводная сеть – это очень удобно, но, если вы хотите получить максимальную скорость интернета, тогда вам следует использовать Ethernet кабель.

Ethernet на помощь!

Естественно, если у вас есть проводная сеть и очень быстрый широкополосный интернет, вы не хотите использовать соединение 100 Мбит/с (Fast Ethernet) между вашим компьютером и модемом вашего провайдера. Это было бы глупо! Вам нужен гигабитный интернет.

Все, что вам нужно, это подключить все ваши домашние устройства с помощью недорогих Ethernet кабелей Cat 6, а также использовать дешевые гигабитные коммутаторы в качестве «узлов» для соединения ваших устройств.

Моя домашняя сеть выглядит следующим образом:

Довольно просто, не правда ли?

Оранжевая линия — кабель Ethernet Cat 6. Вы просто подключаете компьютеры, роутеры, ноутбуки с помощью этих кабелей, и все «просто работает».

Тем не менее, вам стоит обратить внимание, что некоторые ноутбуки поставляются с дешевыми встроенными адаптерами Fast Ethernet, которые предлагают скорость соединения не выше 100 Мбит/с. Если у вас произошла такая ситуация с компьютером, купите гигабитный USB-ethernet адаптер.

Но какие коммутаторы и Ethernet кабели следует купить?

Это тоже довольно легкий вопрос.

В качестве Ethernet коммутаторов вам нужен качественный «гигабитный Ethernet-коммутатор». Мы советуем приобрести 8-портовый D-Link Gigabit DGS-108, который прекрасно подходит для домашнего использования.

Этот коммутатор очень удобен в использовании: когда вы подключаете Ethernet кабель, и разъем мигает зеленым, тогда он работает на скорости 1 гигабит. Если индикатор оранжевый – скорость всего лишь 10 или 100 Мбит/с. Таким образом, вы можете определить, какой Ethernet адаптер используется в вашем компьютере, о чем мы уже говорили выше.

Что касается Ethernet кабелей, вам просто нужно убедиться, что вы используете Cat 6 (категории 6). Кабели Ethernet обычно имеют категорию, напечатанную на них, например:

Обратите внимание, что существуют и другие типы Ethernet кабелей, такие как Cat 5, Cat 5e, Cat 6a и т.д. Любой кабель, который имеет надпись Cat 6, является отличным вариантом для нашей ситуации (независимо от буквы в конце, если таковая имеется). Не следует покупать Ethernet кабели категории Cat 5, потому что они предназначены для работы в сетях менее 1 Гбит/с.

Кстати, разъемы на Ethernet кабелях не играют особую роль на качество и скорость сигнала. Четыре витые пары проводов внутри кабеля играют гораздо большее значение. Чем выше категория, тем быстрее кабель передаст данные. Вот почему вам следует использовать Cat 6 или выше. Cat 6 предназначен для гигабитного Ethernet!

Также вам не стоит переживать об экранировании, если вы покупаете готовый кабель. Просто убедитесь, что это Cat 6, и полный вперед!

Мы подготовили несколько советов и заметок об использовании Ethernet кабелей по всему дому:

  • Не разматывайте сетевой кабель;
  • Не зажимайте кабель в дверях;
  • Не сгибайте кабель под прямым углом; закругляйте его по углам.

Ethernet кабель Cat 6 немного прочнее, чем другие, потому он имеет пластиковый сердечник, который вмещает витые пары проводов. Но вы все равно не должны злоупотреблять прочностью кабеля. Чем больше вы будете сжимать кабель, тем больше будут сдвигаться провода внутри, и тем ниже будет скорость передачи данных.

Используя несколько простых советов, вы можете сделать свою домашнюю сеть максимально быстрой. 1 Гбит/с интернет-соединение не проблема, конечно, если ваш интернет-провайдер предлагает такой быстрый широкополосный доступ.


Мы с котом немного «разогнали» витую пару, приходящую в квартиру

Обычно считается, что «потолок» DSL – 20-30 Мбит/с, FTTB (оптика до здания плюс витая пара до квартиры) - 100 Мбит/с, а PON поддерживает скорости выше 100 мегабит. Мы с коллегами решили развеять мифы и «разогнать» FTTB для отдельно взятого провайдера.

Первым делом мы полезли на чердак в доме. Уже сейчас к нам в каждый дом приходит не менее 1 Гбит/с, а на домовом узле есть подходящий гигабитный «медный» порт. То есть мы можем просто взять и переключить любую квартиру, где лежит наш кабель, в подходящий порт и обеспечить скорости более 400 Мбит/с.

Собственно, мы это уже сделали в рамках бета-тестов, а на днях запустили в коммерческую эксплуатацию услуги в Москве с новыми скоростями. Да, вы, скорее всего, можете подключиться.

Что это было, кэп?

Наша магистральная и городская сети обладают запасом свободной емкости, значительно превосходящим потребности клиентов даже в часы наивысшей, максимально возможной нагрузки. Взять хотя бы горячо любимый мной и котом праздник Новый год, в который больше поздравлений получают те бабушки, которые уже подружились с интернетом и «скайпом».

В чем разница с PON

В том, что наша FTTB-сеть, позволяющая все это сделать, уже существует. Никаких модификаций не требуется. Кабель уже заходит в вашу квартиру. Все провода лежат. Оптика проходит до узлов в домах. Нужно просто взять и переключить кабель в другой порт коммутатора. Все! К вам уже подходит такой канал, но вы об этом не знали. А PON нужно строить – это новая инфраструктура по всему городу. Там есть еще одна засада – от районных АТС расходятся оптические жилы, которые требуют проприетарных же клиентских устройств. А у нас с обычной FTTB-сетью можно использовать что угодно. Хотя адаптированных под L2TP устройств немного.

Как это работает

Из магистрального кольца на уровень города приходит здоровенный транспортный канал. Дальше по городу расходится несколько крупных колец. От них – кольца или mesh-структуры поменьше, на уровне подъездов делаются «звезды». От первого уровня до шкафа в подъезде идут оптические транспортные линки. На коммутаторе уровня доступа, мы перекоммутируем кабель в гигабитный порт… и все, у нас теперь есть гигабитный линк до клиента.

Это результаты моего коллеги без кота, зато с Wi-Fi (801.11 ac).

Техническая возможность

После того, как я смог проверить это на нескольких точках, мы установили такие линки для всех сотрудников компании, работающих над проектом. Довольно быстро, надо сказать. Технических ограничений почти нет: единственное, есть буквально пара десятков кварталов в Москве, где требуется немного модернизировать оборудование, но мы уже работаем над этим.

Еще ограничения

Вы будете смеяться, но мы не нашли способов утилизировать такие скорости. Так вот, оказалось, что забить такой канал можно только очень специфическими задачами – это либо CCTV с кучи камер, либо HD-видео на всех членов семьи одновременно, либо задачи фотографа, заливающего куда-то картинки. Еще – сетевые диски. В общем, за исключением торрентов – мечта провайдера: клиент один раз в день делает «вжух» с тяжелым файлом и дико радуется.

Зато возник ряд других вещей, которые напрямую касаются маркетинга. Первое – почти все ресурсы отдают контент куда медленнее, чем позволяет принимать канал. Это вечная проблема «почему у меня тормозит Интернет, а тесты показывают нормальную скорость». Потому что нужны ресурсы, способные обеспечить большому количеству клиентов отдачу контента на высокой скорости. Так что кому-то придется расстаться с иллюзиями, далеко не каждый ресурс отвечает данным требованиям.
100Мбит/с – это уже очень быстро для соединения с Интернет для подавляющего большинства пользователей. Скорости еще выше могут потребоваться тем, кто вынужден работать с файлами очень большого объема.


На этой фотографии правильно все, включая роутер

К десктопу или ноутбуку линк должен подходить медью – Wi-Fi, тем более, в условиях помех от других сетей, просто не позволит раздать канал на такой скорости. Поэтому оптимальный вариант – десктоп на кабеле, планшеты и телефоны – по воздуху.

Сами конечные устройства тоже могут резать трафик. Естественно, у вас должно быть устройство, поддерживающее 400 Мбит/с (роутер или сетевая карта). В бете, правда, вскрылась пара сюрпризов с тем, что реально держать такой трафик могут не все устройства, несмотря на заявления об этом.

Тесты

Тут начинается самое интересное. Мы взяли 10 высокопроизводительных устройств с поддержкой L2TP.

Гигабит это быстро, особенно для домашнего использования, поэтому и роутеры должны быть соответствующие. Скажу сразу – все модели охватить и оперативно протестировать не представлялось возможным, поэтому мы ориентировались на поддержку гигабитного подключения, двухдиапазонного Wi-Fi и хороших отзывов от пользователей.

Наш шорт-лист:
Asus RT-68U
D-Link DIR 825 D1
Pre-sale образец от нового производителя Totolink
Zyxel Keenetic Ultra
Apple Air port Time capsule

Как только я протестировал устройства по нашим чеклистам в офисе, пришло время тестировать устройства в полевых условиях, тут можно оценить реальную производительность устройства.

Для этого действа я постарался подготовиться основательно, взял MacBook Pro 15 retina (late 2012) – основной рабочий ноут, в отдельный десктоп воткнул SSD на 128GB и до кучи подключил туда Wi-Fi адаптер Asus PCE-AC68 чтобы ничто не мешало разгоняться, так же взял USB Wi-Fi адаптер Totolink A2000UA c поддержкой 802.11ac на всякий случай. Помимо этого захватил iPad mini, iPhone 5 и Samsung Galaxy note – на них будем тестить Wi-Fi.

Для проверки скорости, помимо привычных ресурсов, таких как – speedtest, закачка файлов, установил Iperf на один из наших серверов, подключенных по гигабитному линку в нашу core-сеть. Вроде все, получилось как-то так:

Немного о методике тестов

Во многих обзорах роутеров, которые я видел, обычно собираются стенды с программами для генерации трафика. Мы же решили поступить по-другому: провести тестирование так, как это будет делать абонент, проверяющий скорость нашего доступа в Интернет.
Основными инструментами выставили:
1) Speedtest.net – без него никуда
2) Mirror.yandex.ru
3) Iperf – немного синтетики
4) Youtube

Список небольшой, но на этих ресурсах можно оценить насколько быстро работает доступ в Интернет, так сказать натуральный продукт и никакой синтетики.

Приступаем к тестам

Для начала посмотрим, какие из Wi-Fi сетей уже есть рядом

«Народный» диапазон 2.4GHz – ни много ни мало

5GHz - даже сюда добрались, но сетей не так много, две из них наши

Asus RT-68U


Топовый роутер от Asus. Начинка устройства внушает уважение: чип от Broadcom BCM4708A, 256MB RAM, 128MB Flash, поддержка 802.11ac и Beamforming присутствует.

Патч-корд: спидтест показал 224Mbps на загрузку и 196Mbps на Upload

Хороший результат, продолжаем тестировать, на очереди Iperf.

На этом тесте у нас произошло непредвиденное. То ли роутер начал «глючить», то ли iperf, но результаты выше 50Mbps не поднимались. Ничего страшного, давайте посмотрим на более жизненный тест – скачивание файла с Яндекса.

Практически 35МБ в секунду!

Я еще несколько раз прогнал тесты, потом решил все же почистить SSD, с такими скоростями он быстро забивался.

Теперь взглянем на то, как быстро работает Wi-Fi. Беспроводная сеть, штука капризная, и множество факторов может влиять на конечную производительность. Ноутбук располагался в 4 метрах от роутера по прямой.

Спидтест показал практически 165Mbps на Download и 166 на Upload. Достойно! Особенно, когда речь идет о диапазоне 2.4GHz

Iperf показал схожие значения:

Переключимся теперь на 5GHz. Поскольку роутер умеет работать с 802.11ac, а мой рабочий Macbook нет, я подключил внешний адаптер c поддержкой 802.11ac 2x2.

Подключение прошло успешно… Взглянем на спидтест:

209Mbps на Download 111 на Upload, скорее всего 210Mbps это текущий потолок для производительности роутера по L2TP. Будем надеяться, что в новых прошивках Asus это исправит.

Iperf показал результаты еще ниже:

D-Link Dir 825 D1

Следующий на очереди представитель среднего ценового диапазона D-Link DIR825. Роутер оборудован Dual-Band Wi-Fi модулем, что на текущий момент редкость для среднего ценового диапазона. Посмотрим на что способен этот роутер.

Подключение через патч-корд

Перейдем к тестированию Wi-Fi сети. В роутере установлены две антенны Airgain, поэтому я ожидаю высокие скорости и по Wi-Fi.

Для сети работающей в диапазоне 2.4GHz:

Эта частота максимально загружена, поэтому такой результат в принципе был ожидаем. Как же проявит себя 5GHz?

130-150Mbps. При детальном ковырянии настроек, выяснилось, что если отключать шифрование Wi-Fi сети производительность увеличивается. Конечно, я не открыл Америку, но на других роутерах такой закономерности не вывел.

Переходим к следующему подопытному – Totolink

Этот роутер обладает схожими характеристиками с D-Link DIR 825, построены они на одном и том же SoC – RTL8197D, но в это роутере радиомодуль поддерживает 802.11ac. Интересно будет оценить его возможности в реальных условиях.

Патч-корд:

ЭЭ… ладно, оставлю без комментариев.

Приближаемся к реальности.

Честно говоря, не думал, что «старичок» RTL8197D способен в L2TP через себя прокачивать через себя на таких скоростях. От этого становится интереснее результаты тестирования Wi-Fi сети.

«Народная» частота – 2.4GHz

И speedtest и iperf показали практически идентичные результаты.
На 5GHz скорость вообще должна быть запредельной! Наверно…

А вот и нет, хотя подключение показывало что соединение установлено со скоростью 867Mbps.

Iperf пытается спустить на землю, и это у него не плохо получается.

Наш последний участник марафона – Zyxel Keenetic Ultra

Популярная модель среди устройств L2TP. Хорошо «разгоняется» и стабильно работает. Подключаем патч-корд и запускаем спидтест:

И скачаю уже ставшим родным, на время тестов, дистрибутив Fedorа:

К сожалению, эта модель от Zyxel не поддерживает 802.11ac, поэтому буду довольствоваться 802.11n. Приступаем!

Посмотрим на 5GHz

Ни много ни мало – стандарт. Меня такое положение не устроило, и я решил подключить к роутеру новую Time Capsule с поддержкой 802.11ac (весьма условной для РСТ-модели).

Вот! Жаль что, что таймкапсулу производители не кладут в комплекте со своими роутерами.

А если мерить скорость на телефоне/планшете?

Большинство пользователей, особенно кто не знаком с методологиями различных тестов производительности, и просто запускают приложение на своем телефоне. Я тоже так сделаю.

В наличии был iPhone, планшет и телефон на Android. Тестировать на каждом из роутере подключение, смысла нет, поэтому я остановился на последней модели роутера.

Для 2.4GHz и 5GHz соответственно, тут мы уперлись в потолок производительности Wi-Fi модуля на телефоне. Девайсы на андройде показали примерно те же результаты, при этом, на планшете такая скорость была получена при подключении к сети на 5GHz, на 2.4GHz скорее всего будет ниже:

Ну и тесты на улице:

Что получилось?

Процесс тестирования новой услуги чрезвычайно увлек нас с котом, так что в итоге мы проверили 10 роутеров разных производителей, ценовых категорий с разной «начинкой». Вот наиболее интересные:
  • Zyxel Keenetic Ultra
  • D-Link DIR825
  • Toto-Link
  • Asus RT-68U
  • Zyxel Keenetic Giga II
  • TP-Link Archer C7 v.1
  • D-Link DIR 850L
  • Buffalo WZR-1759DHP
  • Netgear R7000 «Highthawk»
  • Arcadian
Так что если у вас дома SSD или RAID из HDD, есть хороший Wi-Fi роутер, и если вы решаете специфические задачи, требующие быстрого интернета, то вам новая услуга будет полезна.

Цена

Услуга новая, описание на сайте появится через пару дней. Стоимость 1850 рублей в месяц, если без нашего роутера.

UPD, по просьбам в комментариях:

Asus RT-68U D-Link DIR 825 D1 Toto-Link Zyxel Keenetic Ultra
По кабелю (WAN-LAN)
Speedtest D: 224.2 Mbps U:196.77 Mbps
D: 352.16 Mbps U:370.3 Mbps D: 462.6 Mbps U: 255.8 Mbps D: 408.22 Mbps U: 275.59 Mbps
Iperf 26.3Mbps 354 Mbps 379 Mbps ~35MB/s ~43 MB/s ~50MB/s ~52MB/s
Wi-Fi 2.4GHz
Speedtest D: 164.53 Mbps U: 165.68 Mbps D: 86.72 Mbps U: 57.82 Mbps D: 155.01 Mbps U: 118.62 Mbps D: 131.57 Mbps U: 113.53 Mbps
Iperf 140Mbps 52.5 Mbps 152Mbps 132 Mbps
Wi-Fi 5GHz
Speedtest D: 209.4 Mbps U: 111.38 Mbps D: 148.27 Mbps U: 149.45 Mbps D: 233 Mbps U: 132.76 Mbps D: 185.4 Mbps U: 181.07 Mbps
Iperf 163Mbps 130 Mbps 192 Mbps 171 Mbps

Я не очень торопился перевести свою домашнюю сеть со скорости 100 Мбит/с на 1 Гбит/с, что для меня довольно странно, поскольку я передаю по сети большое количество файлов. Однако когда я трачу деньги на апгрейд компьютера или инфраструктуры, я считаю, что должен сразу же получить прирост производительности в приложениях и играх, которые я запускаю. Многие пользователи любят потешить себя новой видеокартой, центральным процессором и каким-нибудь гаджетом. Однако по каким-то причинам сетевое оборудование не привлекает такого энтузиазма. Действительно, сложно вложить заработанные деньги в сетевую инфраструктуру вместо очередного технологического подарка на день рождения.

Однако требования по пропускной способности у меня очень высоки, и в один момент я понял, что инфраструктуры на 100 Мбит/с уже не хватает. У всех моих домашних компьютеров уже установлены интегрированные адаптеры на 1 Гбит/с (на материнских платах), поэтому я решил взять прайс-лист ближайшей компьютерной фирмы и посмотреть, что мне потребуется для перевода всей сетевой инфраструктуры на 1 Гбит/с.

Нет, домашняя гигабитная сеть вовсе не такая сложная.

Я купил и установил всё оборудование. Я помню, что раньше на копирование большого файла по 100-Мбит/с сети уходило около полутора минут. После апгрейда на 1 Гбит/с тот же файл стал копироваться за 40 секунд. Прирост производительности приятно порадовал, но всё же я не получил десятикратного превосходства, которое можно было ожидать из сравнения пропускной способности 100 Мбит/с и 1 Гбит/с старой и новой сетей.

В чём причина?

Для гигабитной сети все её части должны поддерживать 1 Гбит/с. Например, если у вас установлены гигабитные сетевые карты и соответствующие кабели, но концентратор/коммутатор поддерживает всего 100 Мбит/с, то и вся сеть будет работать на 100 Мбит/с.

Первое требование - сетевой контроллер. Лучше всего, если каждый компьютер в сети будет оснащён гигабитным сетевым адаптером (отдельным или интегрированным на материнскую плату). Это требование удовлетворить проще всего, поскольку большинство производителей материнских плат пару последних лет интегрируют гигабитные сетевые контроллеры.

Второе требование - сетевая карта тоже должна поддерживать 1 Гбит/с. Есть распространённое заблуждение, что для гигабитных сетей требуется кабель категории 5e, но на самом деле даже старый кабель Cat 5 поддерживает 1 Гбит/с. Впрочем, кабели Cat 5e обладают лучшими характеристиками, поэтому они будут более оптимальным решением для гигабитных сетей, особенно если длина у кабелей будет приличная. Впрочем, кабели Cat 5e сегодня всё равно самые дешёвые, поскольку старый стандарт Cat 5 уже устарел. Новые и более дорогие кабели Cat 6 обладают ещё лучшими характеристиками для гигабитных сетей. Мы сравним производительность кабелей Cat 5e против Cat 6 чуть позже в нашей статье.

Третий и, наверное, самый дорогой компонент в гигабитной сети - это концентратор/коммутатор с поддержкой 1 Гбит/с. Конечно, лучше использовать коммутатор (возможно, в паре с маршрутизатором), поскольку концентратор или хаб - не самое интеллектуальное устройство, просто транслирующее все сетевые данные по всем доступным портам, что приводит к появлению большого числа коллизий и замедляет производительность сети. Если вам нужна высокая производительность, то без гигабитного коммутатора не обойтись, поскольку он перенаправляет сетевые данные только на нужный порт, что эффективно увеличивает скорость работы сети по с равнению с концентратором. Маршрутизатор обычно содержит встроенный коммутатор (с несколькими портами LAN), а также позволяет подключать вашу домашнюю сеть к Интернету. Большинство домашних пользователей понимают преимущества маршрутизатора, поэтому гигабитный маршрутизатор - вариант вполне привлекательный.

Насколько быстрым должен быть гигабит? Если вы слышите префикс "гига", то наверняка подразумеваете 1000 мегабайт, при этом гигабитная сеть должна обеспечивать 1000 мегабайт в секунду. Если вы так считаете, то вы не одиноки. Но, увы, в действительности всё иначе.

Что же такое гигабит? Это 1000 мегабит, а не 1000 мегабайт. В одном байте 8 битов, поэтому просто посчитаем: 1 000 000 000 битов разделить на 8 битов = 125 000 000 байтов. В мегабайте около миллиона байтов, поэтому гигабитная сеть должна обеспечивать теоретическую максимальную скорость передачи данных около 125 Мбайт/с.

Конечно, 125 Мбайт/с звучит не так впечатляюще, как гигабит, но подумайте: сеть с такой скоростью должна теоретически передавать гигабайт данных всего за восемь секунд. А 10-Гбайт архив должен передаваться всего за минуту и 20 секунд. Скорость невероятная: просто вспомните, сколько времени уходило на передачу гигабайта данных до того момента, как USB-брелоки стали такими быстрыми, как сегодня.

Ожидания были серьёзными, поэтому мы решили передать файл по гигабитной сети и насладиться скоростью близкой к 125 Мбайт/с. У нас нет какого-либо специализированного чудесного оборудования: простая домашняя сеть с некоторыми старыми, но приличными технологиями.

Копирование 4,3-Гбайт файла с одного домашнего компьютера на другой выполнялось со средней скоростью 35,8 Мбайт/с (мы проводили тест пять раз). Это всего лишь 30% от теоретического потолка гигабитной сети 125 Мбайт/с.

В чём же причины проблемы?

Подобрать компоненты для установки гигабитной сети довольно просто, но вот заставить сеть работать на максимальной скорости намного сложнее. Факторы, которые могут привести к замедлению сети, довольно многочисленны, но как мы обнаружили, всё упирается в то, насколько быстро жёсткие диски способны передавать данные на сетевой контроллер.

Первое ограничение, которое нужно учитывать - интерфейс гигабитного сетевого контроллера с системой. Если ваш контроллер подключён через старую шину PCI, то количество данных, которое она теоретически может передать, составляет 133 Мбайт/с. Для пропускной способности 125 Мбайт/с у Gigabit Ethernet этого кажется достаточным, но помните, что пропускная способность шины PCI распределяется по всей системе. Каждая дополнительная карта PCI и многие системные компоненты будут использовать ту же самую пропускную способность, что снижает ресурсы, доступные сетевой карте. У контроллеров с новым интерфейсом PCI Express (PCIe) таких проблем нет, поскольку каждая линия PCIe обеспечивает, как минимум 250 Мбайт/с пропускной способности, причём эксклюзивно для устройства.

Следующий важный фактор, который влияет на скорость сети - кабели. Многие специалисты указывают на то, что в случае прокладки сетевых кабелей рядом с кабелями питания, являющимися источниками помех, низкие скорости гарантированы. Большая длина кабелей тоже проблемная, поскольку медные кабели Cat 5e сертифицированы под максимальную длину 100 метров.

Некоторые специалисты рекомендуют прокладывать кабели нового стандарта Cat 6 вместо Cat 5e. Часто такие рекомендации оправдать сложно, но мы попытаемся протестировать влияние категории кабеля на маленькую гигабитную домашнюю сеть.

Не будем забывать и про операционную систему. Конечно, в гигабитном окружении эта система используется довольно редко, но следует упомянуть, что Windows 98 SE (и старые операционные системы) не смогут использовать преимущества гигабитного Ethernet, поскольку стек TCP/IP этой операционной системы едва умеет нагружать 100-Мбит/с соединение в полной мере. Windows 2000 и более свежие версии Windows уже подойдут, хотя в старых операционных системах придётся выполнить некоторые настройки, чтобы они использовали сеть по максимуму. Мы будем использовать 32-битную ОС Windows Vista для наших тестов, и хотя у Vista в каких-то задачах репутация не самая лучшая, эта система поддерживает гигабитную сеть с самого начала.

Теперь перейдём к жёстким дискам. Даже старого интерфейса IDE со спецификацией ATA/133 должно быть достаточно для поддержки теоретической скорости передачи файлов 133 Мбайт/с, а более новая спецификация SATA соответствует всем требованиям, поскольку она обеспечивает, как минимум, пропускную способность 1,5 Гбит/с (150 Мбайт/с). Однако если кабели и контроллеры могут справляться с передачей данных на такой скорости, сами жёсткие диски - нет.

Возьмём для примера типичный современный жёсткий диск на 500 Гбайт, который должен обеспечивать постоянную пропускную способность около 65 Мбайт/с. В начале пластин (внешние дорожки) скорость может быть выше, однако по мере перехода на внутренние дорожки пропускная способность падает. Данные на внутренних дорожках считываются медленнее, на скорости около 45 Мбайт/с.

Нам казалось, что мы рассмотрели все возможные "узкие места". Что оставалось делать? Нужно было провести несколько тестов и посмотреть, сможем ли мы добраться по производительности сети до теоретического предела 125 Мбайт/с.

Тестовая конфигурация

Тестовые системы Серверная система Клиентская система
CPU Intel Core 2 Duo E6750 (Conroe), 2,66 ГГц, FSB-1333, кэш 4 Мбайт Intel Core 2 Quad Q6600 (Kentsfield), 2,7 ГГц, FSB-1200, кэш 8 Мбайт
Материнская плата ASUS P5K, Intel P35, BIOS 0902 MSI P7N SLI Platinum, Nvidia nForce 750i, BIOS A2
Сеть Встроенный контроллер Abit Gigabit LAN Встроенный контроллер nForce 750i Gigabit Ethernet
Память Wintec Ampo PC2-6400, 2x 2048 Мбайт, DDR2-667, CL 5-5-5-15 на 1,8 В A-Data EXTREME DDR2 800+, 2x 2048 Мбайт, DDR2-800, CL 5-5-5-18 на 1,8 В
Видеокарты ASUS GeForce GTS 250 Dark Knight, 1 Гбайт GDDR3-2200, 738 МГц GPU, 1836 МГц блок шейдеров MSI GTX260 Lightning, 1792 Мбайт GDDR3-1998, 590 МГц GPU, 1296 МГц блок шейдеров
Жёсткий диск 1 Seagate Barracuda ST3320620AS, 320 Гбайт, 7200 об/мин, кэш 16 Мбайт, SATA 300
Жёсткий диск 2 2x Hitachi Deskstar 0A-38016 в RAID 1, 7200 об/мин, кэш 16 Мбайт, SATA 300 Western Digital Caviar WD50 00AAJS-00YFA, 500 Гбайт, 7200 об/мин, кэш 8 Мбайт, SATA 300
Блок питания Aerocool Zerodba 620w, 620 Вт, ATX12V 2.02 Ultra HE1000X, ATX 2.2, 1000 Вт
Сетевой коммутатор D-Link DGS-1008D, 8-Port 10/100/1000 Unmanaged Gigabit Desktop Switch
ПО и драйверы
ОС Microsoft Windows Vista Ultimate 32-bit 6.0.6001, SP1
Версия DirectX DirectX 10
Графический драйвер Nvidia GeForce 185.85

Тесты и настройки

Тесты и нстройки
Nodesoft Diskbench Version: 2.5.0.5, file Copy, Creation, Read, and Batch Benchmark
SiSoftware Sandra 2009 SP3 Version 2009.4.15.92, CPU Test = CPU Arithmetic / Multimedia, Memory Test = Bandwidth Benchmark

Перед тем, как мы перейдём к любым тестам, мы решили протестировать жёсткие диски без использования сети, чтобы посмотреть, какую пропускную способность мы можем ожидать в идеальном сценарии.

В нашей домашней гигабитной сети работают два ПК. Первый, который мы будем называть сервером, оснащён двумя дисковыми подсистемами. Основной жёсткий диск - 320-Гбайт Seagate Barracuda ST3320620AS возрастом пару лет. Сервер работает в качестве сетевого хранилища NAS с RAID-массивом, состоящим из двух 1-Тбайт жёстких дисков Hitachi Deskstar 0A-38016, которые зеркалированы для избыточности.

Второй ПК в сети мы назвали клиентом, у него два жёстких диска: оба 500-Гбайт Western Digital Caviar 00AAJS-00YFA возрастом около полугода.

Сначала мы протестировали скорость системных жёстких дисков сервера и клиента, чтобы посмотреть, какую производительность мы можем от них ожидать. Мы использовали тест жёсткого диска в пакете SiSoftware Sandra 2009.

Наши мечты о достижении гигабитной скорости передачи файлов сразу же рассеялись. Оба из одиночных жёстких дисков достигли максимальной скорости чтения около 75 Мбайт/с в идеальных условиях. Поскольку данный тест проводится в реальных условиях, а накопители заполнены на 60%, то мы можем ожидать скорости чтения ближе к индексу 65 Мбайт/с, который мы получили у обоих жёстких дисков.

Но давайте посмотрим на производительность RAID 1 - самое хорошее у данного массива в том, что аппаратный RAID-контроллер может увеличивать производительность чтения, получая данные с обоих жёстких дисков одновременно, аналогично массивам RAID 0; но данный эффект получается (насколько мы знаем) только с аппаратными RAID-контроллерами, но не с программными решениями RAID. В наших тестах массив RAID обеспечил намного более высокую производительность чтения, чем один жёсткий диск, поэтому велики шансы того, что мы получим высокую скорость передачи файлов по сети с массива RAID 1. Массив RAID обеспечил впечатляющую пиковую пропускную способность 108 Мбайт/с, но в реальности производительность должна быть близка к индексу 88 Мбайт/с, поскольку массив заполнен на 55%.

Поэтому мы должны получить около 88 Мбайт/с по гигабитной сети, не так ли? Это не так близко к потолку гигабитной сети 125 Мбайт/с, но намного быстрое 100-Мбит/с сетей, у которых потолок составляет 12,5 Мбайт/с, так что получить 88 Мбайт/с на практике было бы совсем неплохо.

Но не всё так просто. То, что скорость чтения с жёстких дисков довольно высока, вовсе не означает, что они будут быстро записывать информацию в реальных условиях. Давайте проведём несколько тестов записи на диски до использования сети. Мы начнём с нашего сервера и скопируем 4,3-Гбайт образ со скоростного массива RAID на 320-Гбайт системный жёсткий диск и обратно. Затем мы скопируем файл с клиентского диска D: на его диск C:.

Как видим, копирование с быстрого массива RAID на диск C: дало среднюю скорость всего 41 Мбайт/с. А копирование с диска C: на массив RAID 1 привело к снижению до всего 25 Мбайт/с. Что происходит?

Именно так и случается в реальности: жёсткий диск C: выпущен чуть больше года назад, но он заполнен на 60%, вероятно, немного фрагментирован, так что по записи он рекордов не бьёт. Есть и другие факторы, а именно, насколько быстро работает система и память в целом. Массив RAID 1 составлен из относительного нового "железа", но из-за избыточности информацию нужно записывать на два жёстких диска одновременно, что снижает производительность. Хотя массив RAID 1 может дать высокую производительность чтения, скоростью записи придётся пожертвовать. Конечно, мы могли использовать массив RAID 0 с чередованием, который даёт высокую скорость записи и чтения, но если один жёсткий диск "умрёт", то вся информация будет испорчена. В целом, RAID 1 является более правильным вариантом, если для вас ценны данные, хранящиеся на NAS.

Впрочем, не всё потеряно. Новый 500-Гбайт накопитель Digital Caviar способен записывать наш файл со скоростью 70,3 Мбайт/с (средний результат по пяти тестовым прогонам), а также даёт максимальную скорость 73,2 Мбайт/с.

С учётом всего сказанного мы ожидали получить в реальных условиях максимальную скорость передачи по гигабитной сети 73 Мбайт/с с массива NAS RAID 1 на диск C: клиента. Мы также протестируем передачу файлов с клиентского диска C: на серверный диск C: чтобы узнать, можем ли мы реалистично ожидать 40 Мбайт/с в этом направлении.

Начнём с первого теста, в рамках которого мы отсылали файл с клиентского диска C: на диск C: сервера.

Как видим, результаты соответствуют нашим ожиданиям. Гигабитная сеть, способная в теории дать 125 Мбайт/с, отсылает данные с клиентского диска C: с максимально возможной скоростью, вероятно, в районе 65 Мбайт/с. Но, как мы показали выше, серверный диск C: может записывать только со скоростью около 40 Мбайт/с.

Теперь давайте скопируем файл со скоростного RAID-массива сервера на диск C: клиентского компьютера.

Всё оказалось так, как мы и предполагали. Из наших тестов мы знаем, что диск C: клиентского компьютера способен записывать данные со скоростью около 70 Мбайт/с, и производительность гигабитной сети оказалась очень близка к данной скорости.

К сожалению, полученные нами результаты и близко не подходят к теоретической максимальной пропускной способности 125 Мбайт/с. Можем ли мы протестировать предельную скорость работы сети? Конечно, но не в реалистичном сценарии. Мы попытаемся передать информацию по сети из памяти в память, чтобы обойти любые ограничения жёстких дисков по пропускной способности.

Для этого мы создадим 1-Гбайт RAM-диск на серверном и клиентском ПК, после чего передадим 1-Гбайт файл между этими дисками по сети. Поскольку даже медленная память DDR2 способна передавать данные со скоростью более 3000 Мбайт/с, то ограничивающим фактором окажется сетевая пропускная способность.

Мы получили максимальную скорость работы нашей гигабитной сети 111,4 Мбайт/с, что очень близко к теоретическому пределу 125 Мбайт/с. Прекрасный результат, жаловаться на него не приходится, поскольку реальная пропускная способность всё равно не будет достигать теоретического максимума из-за передачи дополнительной информации, ошибок, повторных передач и т.д.

Вывод будет следующим: сегодня производительность передачи информации по гигабитной сети упирается в жёсткие диски, то есть скорость передачи будет ограничена самым медленным винчестером, участвующем в процессе. Ответив на самый важный вопрос, мы можем переходить к тестам скорости в зависимости от конфигурации кабелей, чтобы наша статья была полной. Сможет ли оптимизация прокладки кабелей дать скорость сети, ещё более близкую к теоретическому пределу?

Поскольку производительность в наших тестах была близка к предполагаемой, мы вряд ли увидим какие-либо улучшения при изменении конфигурации кабелей. Но мы всё равно хотели провести тесты, чтобы приблизиться к теоретическому ограничению по скорости.

Мы провели четыре теста.

Тест 1: по умолчанию.

В данном тесте мы использовали два кабеля длиной около 8 метров, каждый из которых был подключён к компьютеру на одном конце и к гигабитному коммутатору на другом. Мы оставили кабели там, где их прокладывали, то есть по соседству с кабелями питания и розетками.

На этот раз мы использовали те же 8-м кабели, что и в первом тесте, но перенесли сетевой кабель как можно дальше от кабелей питания и удлинителей.

В данном тесте мы сняли один из 8-м кабелей и заменили его метровым кабелем Cat 5e.

В последнем тесте мы заменили 8-м кабели Cat 5e на 8-м кабели Cat 6.

В общем, наше тестирование разных конфигураций кабелей не показала серьёзной разницы, но выводы сделать можно.

Тест 2: снижаем помехи со стороны кабелей питания.

В небольших сетях, таких как наша домашняя сеть, тесты показывают, что вам можно не беспокоиться о прокладке кабелей LAN рядом с кабелями электропроводки, розетками и удлинителями. Конечно, наводки при этом будут выше, но серьёзного эффекта на скорость сети это не даст. Впрочем, с учётом всего сказанного, лучше избегать прокладки рядом с кабелями питания, да и следует помнить, что в вашей сети ситуация может оказаться иной.

Тест 3: уменьшаем длину кабелей.

Это не совсем корректный тест, но мы пытались обнаружить разницу. Следует помнить, что замена восьмиметрового кабеля на метровый может привести к влиянию на результат просто разных кабелей, чем разницы в расстоянии. В любом случае, в большинстве тестов мы не видим значимой разницы за исключением аномального подъёма пропускной способности во время копирования с клиентского диска C: на серверный C:.

Тест 4: заменяем кабели Cat 5e на Cat 6.

Опять же, мы не обнаружили существенной разницы. Поскольку длина кабелей составляет около 8 метров, большие по длине кабели могут дать большую разницу. Но если у вас длина не максимальная, то кабели Cat 5e будут вполне нормально работать в домашней гигабитной сети с расстоянием между двумя компьютерами 16 метров.

Интересно заметить, что манипуляции с кабелями не дали никакого эффекта на передачу данных между RAM-дисками компьютеров. Вполне очевидно, что какой-то другой компонент в сети ограничивал производительность магической цифрой 111 Мбайт/с. Впрочем, подобный результат всё равно приемлем.

Дают ли гигабитные сети гигабитную скорость? Как оказывается, почти дают.

Однако в реальных условиях скорость сети будет серьёзно ограничиваться жёсткими дисками. В синтетическом сценарии память-память наша гигабитная сеть дала производительность, очень близкую к теоретическому пределу 125 Мбайт/с. Обычные же скорости в сети с учётом производительности жёстких дисков будут ограничиваться уровнем от 20 до 85 Мбайт/с, в зависимости от используемых винчестеров.

Мы также протестировали влияние кабелей питания, длины кабеля и перехода с Cat 5e на Cat 6. В нашей небольшой домашней сети ни один из упомянутых факторов не влиял существенно на производительность, хотя мы хотим отметить, что в более крупной и более сложной сети с большими длинами эти факторы могут влиять намного сильнее.

В общем, если вы передаёте в домашней сети большое количество файлов, то мы рекомендуем устанавливать гигабитную сеть. Переход с сети на 100 Мбит/с даст приятный прирост производительности, по крайней мере, вы получите двукратное увеличение скорости передачи файлов.

Gigabit Ethernet в домашней сети может дать больший прирост производительности, если вы будете считывать файлы с быстрого хранилища NAS, где используется аппаратный массив RAID. В нашей тестовой сети мы передавали 4,3-Гбайт файл всего за одну минуту. По соединению на 100 Мбит/с тот же самый файл копировался около шести минут.

Гигабитные сети становятся всё более доступными. Теперь осталось только дождаться, когда скорости жёстких дисков поднимутся до такого же уровня. А пока что мы рекомендуем создавать массивы, способные обойти ограничения современных технологий HDD. Тогда вы сможете выжать больше производительности из гигабитной сети.

← Вернуться

×
Вступай в сообщество «nloeda.ru»!
ВКонтакте:
Я уже подписан на сообщество «nloeda.ru»