Silverhunt

Рейтинг
14
Регистрация
16.06.2007

Что из себя представляет на данный момент (и, естественно) в прошлом 1Gb.ru?

Говорю про виртуальный хостинг. Всё относительно конечно, но на мой взгляд участились тормоза и вываливания сайтов (говорим про nix), вроде как и кратковременно, но ИМХО неприятно, хотя вроде и не смертельно. С техподдержкой тоже стало похуже, время ответа увеличилось и можно иногда прождать 2-3 суток, хотя проблемы по большей части всё-таки решают, единственное как уже говорилось выше - сервера иной раз подтормаживают. Из минусов - лимитируемая процессорная нагрузка, что затрудняет нормальное индексирование некоторыми особо шустрыми роботами, но если брать нормальные тарифы, то проблем нет. Из плюсов - своя собственная панель управления, бэкапы там делать можно без проблем, хорошие возможности отслеживания и ограничения нагрузки. Работаю с ними уже года 3, серьёзных падений зафиксировал 2-3. Когда начинал работать с ними, техподдержка отвечала куда оперативнее, а сервера не тормозили. В общем я бы дал положительный отзыв, по крайней мере пока куда-то уходить от них не собираюсь.

По Вашему же мнению, нужно еще докупить ссылок на страницы, чтобы они снова появились в индексе, я правильно понял?

Рассмотрим конкретную ситуацию. Осталось страниц в индексе - 10 из нескольких тысяч. Раскручивался сайт в основном обменом ссылками, причём как обычно водится, ссылки вели на главную страницу. Когда страницы стали вываливаться, коды ссылок при обмене перераспределил на внутренние страницы, плюс слегка пробежался по форумам с оставлением ссылок на внутренние страницы, так как откровенным спамом не занимался, то счёт ссылок вёлся на десятки (то есть немного). Ну дык вот, лезим в Япанель, там где на страницу ссылается менее 20 внешних ссылок, там везде тишина за исключением нескольких страниц. Стоит добавить беков на конкретную страницу, так вот она и в индексе, убираем обратки, не в индексе. Разницы что для уник не уник - без разницы.

я то как раз думаю, что страницы могли выпасть из-за большого числа бэков (ведь есть же у буржуйского гугла фильтр too many links at once), появившихся на относительно небольшой промежуток времени - 3 недели. p.s: это мои мысли, не более, никакими фактами не подтверждено.

По моим наблюдениям 3 недели не срок, большие проекты вынуждены постоянно, то есть годами кормить сапу чтобы оставаться в индексе, потому как иначе нужна очень нехилая сеть сателитов...

Далее анализируем конкурентов и вот чудеса (ох боюсь минусов наставят), интересная закономерность, их сайты начинало колбасить вместе с моими, причём день в день и различной тематики, затем они чудным образом в индексе, а я соответственно в анусе 😮, подключив мозг начал думать ☝ Точно знаю что как минимум 1 из почти десятка конкурентов закупает ссылки в сапе, плюс у ВСЕХ конкурентов что вогнали свои десятки тысячь страниц в индекс, беки исчесляются тысячами и более, конкуренты имевшие до всех Находок Магаданов и прочих Африк с Парагваями кучу страниц в индексе но побрезговавшие (как и я) закупками ссылок - сдулись полностью. На уникальность контента никто не обращал внимания, в индексе оказалось куча неуника, а уник вывели из индекса. Учитывая что Яшка в выдаче до сих пор выдаёт кучу сайтов с дублированным контентом...

Ну и в общем, так... взять большинство сайтов с кучей страниц в индексе, у всех куча беков, хотя, особенно в случае с каталогами ни Яша ни Гугля всё вам не покажут, однако факт - учтут. Попробуйте любой сайт прогоните хоть через Ашманова, посмотрите на соотношение страниц в индексе и обраток (обратите внимание - ссылки идут на внутряки). Там кстати тонкость, есть ссылки под Яшку, есть под Гуглю, у последнего те же алгоритмы ИМХО (очень похожи), однако гайки не так завинчены, думается Яше тоже придётся их приотпустить иначе рынок потеряет, есть преположение что не хватат ему вычислительных мощьностей, вот и режет выдачу чтобы машины разгрузить...

Silverhunt добавил 09.01.2009 в 05:29

P.S. Проанализировав беки успешных (то есть в индексе) конкурентов, за которым наблюдаю не первый год, пришёл к таким выводам:

а)Беки по большей части не естесственные, а либо купленные, либо каталожные.

б)Естесственные беки НЕ МОГЛИ приростать со скоростью даже в 5-10 раз более медленной чем существующая, что подтверждают загнувшиеся сайты не занимающиеся закупками.

Уник не уник... меня терзают смутные сомнения. Есть приличное количество сайтов, часть с полностью уникальным контентом, часть с не очень, часть вообще никакого уника, так вот, все сайты с количеством страниц более 100 в этот ап начали терять проиндексированные страницы. Сайты разные, есть в Як, есть вне его, старые новые, всё одна картина.

Меня настораживает как раз тот факт, что контент уникальный и в ряде случаев никем не передирался.

Чего я НЕ делал в вышеперечисленных случаях, так это НЕ покупал ссылок на эти сайты... и ещё заметил такое интересное обстоятельство, чем больше ссылок ведёт на проекты, тем больше страниц в индексе... не взирая на уникальность контента.

Меня интересует такой вопрос, сколько надо ссылок дать на конкретную страницу, чтобы Яша её вернул в индекс и второй вопрос, есть ли критическое количество ссылок на сайт или их соотношение с количеством страниц, после которых сайт возвращается в индекс в полном объёме?

А то пока по моим наблюдениям нужно 20-30 ссылок дать на 1 страницу чтобы она в индексе нарисовалась.

Опережая высказывания про плохую индексацию скажу что Яша все страницы прекрастно видит, но в индекс не включает.

Прошу поделиться своими наблюдениями, можно в личку.

P.S. Если кто захочет ставить минусы в репу за честные наблюдения, ну тогда я вообще не знаю для кого этот форум.

У меня была такая проблема. Грузил бот Яндекса (при условии что есть хорошая связанность с MSK-IX) плюс любители сливать сайт целиком по широкому каналу. Проблема встаёт в полный рост при ограничении у хостера процессорной нагрузки, как например у 1gb.ru. Решил так: докупил мощьности процессора, потому как если закрыть роботам индексацию - поиск накроется. Воткнул защиту от массовых закачек, решение тут. И закрыл ссылки-ловушки от индексации в гугле и Яше. Сайт на месте и по сей день, хотя часть роботов пытается ворваться по закрытым ссылкам. Основную нагрузку у меня лично вызывали форумы, что phpBB что IPB. Нагрузка от бота подпрыгивала в 3-10 раз, в моём случае с 1-3 нормальных процентов до 7-9. Гугля и другие боты доставляли проблем куда меньше, у Яши кстати только несколько адресов наиболее проблемными были, остальные вели себя "прилично". Если поможет, буду рад.

2 AndyM

Если можно поподробнее, хосты в сутки, движок, форум, трафик.

Думал к ним пойти, к ник.ру, отпугнуло то что очень невнятно прописаны тех. характеристики, в особенности насторожило то что нет лимитов процессорной загрузки, отписал в тех.поддержку, отвечали сутки или двое, справедливости ради замечу что не помню на рабочие ли дни приходилось письмо или нет, однако ответ был не совсем таким как хотелось бы


Статистику по использованию процессорного времени мы не ведём,
соответственно и не ограничиваем пользователей по данному параметру,
однако имеют место иные лимиты:

Объём оперативной памяти: 101 - 64 Мб, 201 - 128 Мб, 301 - 192 Мб.
Максимальное количество процессов: 101 - 16, 201 - 32, 301 - 64.
Число одновременных соединений с сервером MySQL: 201 - 16, 301 - 32

То есть в принципе тоже ответ, но меня это всё же не убедило, хотя как уже сказал выше их услугами как хостера не пользовался, а значит мнение только субьективное.

P.S. А вообще лучше тематику сайта укажите, количество страниц, движку, наличие форума, и прочее, чтобы вам более точный ответ получить.

Моё ИМХО вас либо пытались скачать, весь сайт, прогами качалками, либо какие-то особо шустрые поисковые роботы решили проиндексировать ваш сайт разом.

По крайней мере сам сталкивался с подобными пиками не раз, причины в основном именно такие.

По мне так лучше "аккаунт будет заблокирован" чем лежащий сервер и без всяких условий.

Все предупреждения идут от наскоков роботов или качков с прогами качалками. У меня на 3 тыс хитов/сут нагрузка в среднем 0,6% на Слаеде2.0+IPB2.x

Кроме того, предупреждение шлёт робот и предложение тарифного плана тоже автоматическое, пишите в техподдержку и всё ОК. То есть доказываете что явление это разовое.

По мне так всё адекватно, вот уже и пингвина прикрутили.

2 Egi
Не совсем согласен, у меня с Гугла идёт в 2 раза меньше чем с Яши.
По крайней мере Яша не отхватывает больше 65% обычно.

12
Всего: 18