Есть желание культурно отклоачить Googlebot-а, будут ли санкции?

A
На сайте с 29.12.2005
Offline
118
980

Задача следующая: нужно оптимизировать страницы большого ветвистого сайта, аля интернет-магазин, с целью передачи максимального статвеса на страницы нижнего уровня с товаром. Понятно как это сделать, нужно ликвидировать навигацию на страницах, оставив только ссылки на нижние уровни. Непонятно, как надежно ликвидировать ссылки. :) document.write()? шифровка линка, как на дорах? Но гугл чешет по JS без проблем, это уже давно известно, учитывает он такие урлы или нет, тот еще вопрос...

А что если решить проблему радикально, отдавать гулеботу копию страницы в плане контента, но с вырезанной навигацией, а возможно и с вырезанной частью контента (<noindex> то для гугля не существует)? Те отдаваемая страница будет либо копией, либо четко подмножеством оригинальной страницы, ни единого лишнего байта по сравнению с оригиналом. В используемой CMS это и в плане программизма на порядок проще, чем переделывать все на шифрованные линки. Вопрос в том, не будет ли санкций?

XPraptor
На сайте с 15.10.2004
Offline
333
#1

Будет. Читайте правила и рекомендации гугла (и яндекс схож в этом деле). Если вы представите другой url для таких страниц и запретите первый для гугла, тогда это пройдет как версия для печати например, но по одному урлу разный контент - однозначно санкции.

[Удален]
#2
Anton:
Вопрос в том, не будет ли санкций?

Не будет. Годами используем примерно такую же схему (и для гугла, и для яндекса), и всё в порядке.

Вопреки мнению "гуру", ни гугл, ни яндекс не проверяют страницы на клоакинг - это слишком затратно и неэффективно. Проверяют очень редко по стуку, но в вашем случае стук маловероятен, так как вы не делаете радикальной подмены контента.

Другое дело - что таким способом вам не удастся поднять стат.вес внутряков... :) Тут нужно в другом направлении копать.

AN
На сайте с 29.10.2007
Offline
135
#3

А как вы предполагаете, насколько серьезный будет эффект в плане прокачки страниц товаров от снятия ссылок меню?

Форум о Бали (http://baliforum.ru)
A
На сайте с 29.12.2005
Offline
118
#4
Andy Norton:
А как вы предполагаете, насколько серьезный будет эффект в плане прокачки страниц товаров от снятия ссылок меню?

Трудно сказать. Но, поскольку речь идет не только о меню, но и о навигации по каталогу, о внешних ссылках и куче внутренних ссылок с каждой такой страницы, то мне кажется целесообразным хотя бы попробовать за это побороться.

Anton добавил 30.03.2011 в 13:54

dbond80:
Другое дело - что таким способом вам не удастся поднять стат.вес внутряков...

Поподробнее, пожалуйста.

AN
На сайте с 29.10.2007
Offline
135
#5
dbond80:

Другое дело - что таким способом вам не удастся поднять стат.вес внутряков... :) Тут нужно в другом направлении копать.

Тоже очень интересна тема. Намекните? Или готов заплатить за консультацию.

юни
На сайте с 01.11.2005
Offline
933
#6

Тоже с удовольствием выслушаю.

https://searchengines.guru/ru/forum/944108 - прокси-сервис на базе операторов домашнего интернета, сотни тысяч IP-адресов, канал от 20 Мбит
igiodua
На сайте с 24.10.2008
Offline
135
#7
dbond80:
Не будет. Годами используем примерно такую же схему (и для гугла, и для яндекса), и всё в порядке.

Вопреки мнению "гуру", ни гугл, ни яндекс не проверяют страницы на клоакинг - это слишком затратно и неэффективно...

может быть и не будет, а может будет :) ..доры/кривосайты тоже годами висят, и ой.. вылетел)

У меня был аналогичный опыт, на котором я получил 3х месячную санкцию от G за такие действия. роботу недопоказывалась часть контента., это было сделано исключительно в благих целях, по этому считаю что санкция впилилась автоматически а не по стуку.. хотя хз конечно.

В любом случае лучше найти "законное" решение чем испытывать удачу, тем более если проект серьезный.

A
На сайте с 29.12.2005
Offline
118
#8

Очень вовремя по теме: /ru/forum/617341

XPraptor
На сайте с 15.10.2004
Offline
333
#9

dbond80, посмотрю в личку такой "годами" сайт плиз (где идет подмена выдачи для ботов) с сохранением конфиденциальности конечно.

XPraptor добавил 30.03.2011 в 19:31

ТС - в правилах у обоих ПС однозначно написано про подмену выдачи для ботов. Единственный разрешенный вариант - типа два сайта на одном домене - один закрыт для гугла от индекса, другой от яндекса - тогда у вас два разных, как бы, сайта на одном домене, но без нарушений. При этом урл структура у страниц разная, но на один урл без опаски не получится повесить разный контент. Рано, или поздно - пс найдет подмену и писец.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий