Dm

Dm
Рейтинг
108
Регистрация
11.03.2002
Должность
web
wolf:
В том-то и дело, что падают отдельные документы с сайта. Так, морда может рухнуть по своим запросам, а внутренняя - подскочить по своим. У того же веб-ринга двигалось сразу куча страниц в куче тематик. Одни упали, другие - нет. Поэтому сомнительной выглядит версия о санкциях. Либо санкции стали применять не к сайтам, а к отдельным документам.

Вот одно соображение (письмо от моего хостера):

Вы получили это письмо, потому что являетесь клиентом хостинга WebXL.

Хотим Вам сообщить следующе:

28.01.2006, приблизительно в 17:50 был обесточен датацентр.

В результате, десятки серверов перестали работать, включая и наш.

Сайт датацентра так же был недоступен.

Работа нашего сервера была восстановлена 29.01.2006 03:10.

Время простоя составило приблизительно 9 часов.

По имеющейся у нас информации, отключение электропитания вызвано аварией на подстанции в Санкт-Петербурге.

Цитирую слова нашего сотрудника находящегося в Санкт-петербурге:

- "Пол питера было без света, интернет провайдеры вообще все лежали"

- "интернета вообще никакого не было"

- "телевышка тоже без света, уже заработала"

- "охранные системы все обесточились"

Приносим извинения за неудобства.

Просим обратить внимание, что отключение вызвано обстоятельствами

непреодолимой силы, к которым относится пожар.

Об этом событии (о пожаре и отключении электричестваФ), Вы наверняка сможете услышать в новостях.

--

С уважением, Виктор Симон

www.webxl.ru

Skyter:
Поддерживаю во многом! Я видел кучу людей говоривших про то, что есть склйка, но ни единицы из них давали более менее внятное описание того, почему это и как это может быть реализовано!..
Хорошо выводы делаете... Раз посмотрел на сайт, увидел изменение и сделал глобальный вывод... А тут куча горе оптимизаторов ставят опыты, изучают опыт других . Говорите про склейку - расскажите подробно что и как!

Если бы Вы внимательно читали всю ветку, а не искали бы к каким словам придраться, Вы бы поняли, что именно я имел в виду. Получайте ответный минус за поспешные выводы.

Что касается вопроса есть склейка или нет - поставьте эксперимент и получите свои данные, которыми сможете аппелировать.

statev:
Поисковым машинам можно получать пользу от хорошей коллекции отобранных сайтов. Например, давать больший вес ссылкам с сайтов, участвующих в каталоге, потому что это проверенные сайты.

Если каталог есть и его _можно использовать, это не означает что его _нужно использовать. Есть ведь не только видимые на первый взгляд плюсы, есть и минусы. Интернет стремительно растет, количество сайтов тоже очень быстро растет. Штат модераторов должен расти пропорционально росту количества сайтов. Представляете это?

Space:
Вот и посмотрим. Я снова заменю ссылки на старый формат. Если сайт поднимется до 15, значит ссылки не клеятся, а если не поднимется, то, возможно, действительно накрыли за ликатор, а не за ссылки.

Если сайт поднимется в топ3 - значит не клеятся. Если поднимется до 15 - значит они не в непоте, но склеились, а упал значит потому что плохо изменили тексты.

Ну что сказать? Хорошая тулза.

Пользуюсь ей вместо старого-доброго be1.

Angelika:
В этом рассуждении предположение о склейке - лишнее. Вполне можно обойтись и без него.

А как тогда объяснить почему сайт повисел на 15 месте некоторое время? Он ведь не из второго десятка пришел в топ3.

Space:
Вот у меня такая ситуация. Купил я на сайт 1500 ссылок. С тремя вариациями ссылочного текста. Сайт вылетел в тройку по конкурентному запросу, повисел там апдейт, свалился на 15 место и там замер. Я думаю - это наверное из-за того, что я слишком одинаковые ссылки сделал. Заменил эти три варианта ссылок на 40 вариантов. В результате сайт упал на 3-й десяток. Чем это можно объяснить? Ведь ссылки стали более разнородными?

Поправьте, если где-то в цепочке я ошибся:

1500 ссылок было куплено, скорее всего это ссылки на автолинкаторе. Недавно один из линкаторов, начал предоставлять возможность размещения нескольких текстов ссылок (это linq, да?).

Теперь что случилось:

ссылки проиндексировались, вывели сайт в топ3 (linq был эффективен сразу после добавления описанной выше возможности), потом Яндекс их склеил и сайт скатился до 15го. Потом Яндекс отследил все ссылки линкатора и поставил на них непот-фильтр, после чего они вообще перестали учитываться при ранжировании.

В моей теме был случай один-в-один, сайт потеснил нас в топ3 за счет линкатора, после чего через несколько апдейтов сначала скатился ниже, а потом и вообще пропал.

statev:
Мне кажется, что в основном присутствующие здесь пытаются угадать как и что, а разумнее имхо встать на место разработчиков поисковика и подумать как и что можно сделать.

Все мы начинали с формулы релевантности - конечно, чего проще вывести формулу, взять первую производную и найти максимум :) (не забыв проверить перегиб, чтобы не дай Бог не спутать с минимумом). Пока я видел единственную полезную такую работу wolf'a с кем-то в соавторстве (ссылку не помню - на другом компе она), но если я правильно понял, там в основном результаты изучения теоретических материалов.

statev:
Например, пользователь делает запрос. Вам нужно выдать список релевантных сайтов. А у вас уже есть некоторое их количество, отобранное вручную и совершенно точно соответствующих запросу (описание сайтов соответствует запросу)... Тогда можно сделать так: дать ссылке (тексту ссылки) с каталога существенный вес и складывать этот вес с весами остальных ссылок.

В этом случае (раз уж мы о частностях) проще назначить такому каталогу искусственный вИЦ. Тут тебе и вИЦевая ссылка на сайт будет и ссылочное ранжирование по тексту ссылки. Но есть огромное НО. Поисковики стремятся дать пользователю нужную _страницу_, а не сайт. А в каталогах в большинстве случаев ссылка на _сайт_. А сайт бывает из нескольких тематик. Не факт, что страница на тематическом сайте лучше страницы на нетематическом.

Вот и все что нам остается - собирать факты с различными коэффициентами истинности и строить из них гипотезы с учетом коэффициентов.

statev:
Не факт. То есть возможны варианты.
В любом случае, еще надо умножить на коэффициент ссылочного ранжирования...

А я бы не стал запариваться. Формула все равно не получится, а времени можно потерять очень много. Лучше давайте попробуем условия эксперимента сформулировать.

statev:
Отдельной песней в К1 можно сделать присутствие в каталоге. Сказать, что вес ссылки из каталога - PR=6(это PR yaca), или вИЦ=большому числу

А Вы уверены, что ссылка из Каталога Яндекса привносит виц на сайт?

Skyter:
Хм... НУ вот вы себе как представляете у вас ресурс про Алену Апину.. Куча фанатов понавешают ссылок Сайт Алены Апиной... И их все клеить??? Они как раз деййствительно указывают на то, что при нажатии вы попадете на страницу про Алену Апину...Это дословный текст? У Садовского основная задача дарить оптимизаторам секреты Яндекса? Доказательства в студию!!!

Ну хорошо, объясню на пальцах... Вероятность того, что куча народу будет ссылаться на сайт Алены Апиной как "Апина", "Алена Апина", "сайт Алены Апиной" и "официальный сайт Алены Апиной" высока, следовательно такие ссылки (отдельно "Апина", отдельно "Алена Апина" и т.д.) склеятся только при большом их количестве.

Всего: 1268