Spectre

Spectre
Рейтинг
145
Регистрация
26.09.2005
NikitoZZ:
Вот например Рамблер.. Мировой сайт? по запросу поисковые системы он на первом месте...

Кстати, весьма самокритично со стороны Яндекса :)

New_Angel:
Вы даже себе представить не можете, насколько это текущие "проблемы"! ;)

Ну почему же? Экономией бюджетов занимались все и всегда. А "непот" - это как раз инструмент для экономии бюджета был. Так что...

Что толку говорить о магадане, пока его нет? Бояться раньше времени? Или радоваться наоборот? Зачем? Все равно мы не узнаем что нам готовит большой брат, пока он нам этого не покажет. А когда покажет, тогда видно будет. Не вижу смысла в нагнетании обстановки.

New_Angel:
Дык это точно не последняя доработка, ждите марта. Страшное слово "М-А-Г-А-Д-А-Н"! 🤣 )))

Ну что вы все заладили "магадан-магадан"? Хотите чтобы этот форум и правда к релизу магадана вылез на первое место по этому запросу? :)

Мы тут о текущих проблемах говорим.

А есть ли взаимосвязь между отвалившимся непотом и увеличившимся числом бэков в панели вебмастера мы узнаем уже сегодня. У моих сайтов количество бэков вернулось примерно к тому что было в конце января.

donskoi:
аналогичная ситуация, но прирост не такой большой:) 1500 ссылок

Думаю, разница в возрасте и популярности сайтов...

По-моему рост бэков и "отмена непота" мягко говоря, звенья одной цепи. Скорее всего непот просто стал не нужен при новом алгоритме. Хотя глядя на выдачу по низкочастотникам (особенно "региональным"), где теперь висит куча дорвеев, предполагаю что либо это не последняя доработка, либо все-таки это глюк.

wolf:
Пока всё говорит за то, что принцип следующий. Имеется некая выборка сайтов, изначально классифицированных, как "продвигающиеся с помощью ссылочного спама". То есть "плохих ребят". Далее вычисляются доноры, имеющие некую критическую массу ссылок на плохих ребят. Они непотятся, а анализ пересечения множеств ссылок с них позволяет пополнять базу "плохих ребят". И так далее. Процесс итеративный.

Главное что бы со временем абсолютно все сайты не набрали эту "критическую массу". :D

Goword:
3. Частично фильтрует блок ссылок, в блоке может одна работать, следующая нет.

Такого не бывает "тут помню тут не помню. Устроили ромашка! Дайте спать!"

Причин почему вы видите "эффект от ссылки", а от другой ссылки не видите может быть много.

Например, на сайт может быть несколько ссылок с анкором как у первой или включающим анкор первой ссылки. Вот и все. Повторюсь: это не все причины.

Возможно я спалю тему, но я еще не видел ни одной системы, которая эффективно работала бы с контекстными ссылками. Правда и видел-то я всего две: clx и sape.

Вобщем основная беда этих систем вот в чем: ссылку-то вы ставите из текста, а Яндекс о ней как не знал, так и не знает. Проверьте индексацию своей ссылки через месяц-другой после покупки. Только саповский YAL, естественно, здесь не подходит...

Извините, что прервал обсуждение говноссылки vs говноконтент :)

Каширин:
А яндексоиды, наоборот, говорят о 500 млн. документах, выброшенных из поиска за их недоброкачественность. И статистика Яндекса вторит им.

Ну у меня по статистике из кабинета Webmaster'а у всех сайтов, где внешних бэков было более 1000 заметно увеличилось их число после последнего АПа. Очень яркий пример: до АПа было чуть 17к бэков, после - 39к.

...ну это так к сведению.

По поводу нахождения по дальним словам из тайтла, я думаю это дело рук автоматических каталогов. Я помню у меня один сайт вообще в формате реального времени тырили: меняешь тайтл, заходишь на страницу каталога, там уже новый заголовочек. 15 смен тайтла за пару минут, 15 разных заголовков в каталоге. А потом думаем почему данные логов так расходятся с данными графических счетчиков. :)

коала, жующая семечку:
больше похоже не на теорию, а на констатацию факта :)

Только факты какие-то не фактовые :)

Ты видишь суслика? И я нет! А он есть! :)

svarog:
Зачем? Обычные неконкурентные запросы. Там практически нулевая конкуренция :)

В том-то и дело. 😂

А эти запросы всегда легко выходили. И даже каталоги-то были нужны крайне редко...

Всего: 727