Сегодня посмотрел статистику Li за вчерашний день и сделал вывод, что публика в рунете при проблемах у Яндекса примерно поровну разделилась между Ramler & Google. Так что G еще в сознании масс не является однозначной альтернативой Яндексу, а Рамблером многие могут воспользоваться по старой памяти.
Не могу точно сказать, что .народ ранжируется лучше...
Но мотив у Яндеса для этого есть: Я крутит там рекламу и всю выручку берет себе!
Str256, скажем так, по многим НЧ и 10 релевантных страниц не найти. А сравнивать ПОЛЕЗНОСТЬ на автомате вообще невозможно. Яндекс банит автоматом по каким-то формальным признакам, хотя возможно с насыщенностью тематик Вы и правы...
Alyzer, а меня причины авто-бана волнуют в последнее время все больше, т.к. тем про автоматический бан на форуме уже слишком много.
Правильно, а еще схема презда, фотография генерального директора, платежные реквизиты, № лицензии и т.д.
Но умный Яндекс думаю вряд-ли сможет ПОНЯТЬ что написано на странице. И точно не сможет проверить имеет ли компания договор аренды офиса!
Alyzer, а Вы бы дали пару советов владельцу того сайта.
Ну почему же, погавкать на слона это знаете ли адреналин-с :D
Pau-M, а у Вас уже есть программа действий??
The WishMaster, не верю! (с)
В соседней ветке (/ru/forum/265734) был сайт www.toursland.com/. Нормальный корпоративный сайт, и при этом в автоматическом бане.
Конечно его тоже можно назвать сателлитом, т.к. нет детальной информации об услугах, но как-то язык не поворачивается!
SkyDolfin, может расскажете что делали ВЕСНОЙ перед попаданием под авто-бан. Если можно, расскажите все действия, а не только внутреннюю оптимизацию.
У кого аналогичная ситуация тоже хвастайтесь.
Гссылка -- ссылка, которая не учитывается поисковыми системами или передает вес при ссылочном ранжировании; а также такая ссылка, при установке которой Вы считаете, что вероятность того, что она не будет учитываться при индексации очень велика.
Гссылками являются:
1. Ссылки закрытые от индексации: noindex, nofollow, через robots.txt, через клоакинг...
2. Неиндексируемые ссылки: на забаненных ресурсах, на непроиндексированных страницах (как в большинстве г каталогов), на страницах, куда робот заходит реже, чем раз в месяц.
3. Ссылки на сайтах, нарушающих лицензию (явные Г сайты)
4. Ссылки с ресурсов под непот-фильтром.
5. Ссылки с сайтов, рискующих залететь под этот фильтр (большое количество исходящих ссылок, немодерируемые ссылки, нетематика, спамные анкоры...)
6. Ссылки со страниц, созданных для размещения ссылок (links.htm)
Кончился бонус новичка + сайт попал под фильтр "слишком много новых ссылок".
Делать с ссылками ничего не надо, просто ждите... Если через месяц не появится на прежнем месте, тогда придется думать что еще не так...
А ни те не должны страдать, ни други. Сайты в целом не должны страдать, достаточно фильтровать только страницы с дублями.
А пользователь должен иметь возможность видеть в результатах поиска не только оригинал, но и нечеткие дубли, поскольку небольшие исправления внесенные в текст могут оказать существенное влияние на его смысл.
ИМХО. Если бы Яндекс публиковал бы что-то типа PR, который бы явно говорил типа: "Эта страница содержит дублированный контент и вес ссылки с нее равен 0.", то Г в сети было бы существенно меньше.