Отток пользователей из-за качества выдачи - это последний фактор, в который я готов поверить... Качество выдачи важно нам, сеошникам. Для обывателя "качество выдачи" - это как искусство, кому-то нравится Пикассо, кому-то - Моне, кому-то - Яндекс, кому-то - Гугл... А большинство - один хер в живописи не разбирается 🤪
Сам себя несколько раз ловил на перескоках от Яндекса к Гуглу и обратно... очень уж это неопределённая сущность - качество выдачи
например, если нужно несколько ключевиков загнать в анкор... т.е. полное совпадение с title
проститутки - вот запретная тема! нигде ссылок не купить, прямо беда, везде в фильтрах... кто как двигает?
а в свете недавних возможностей по индексированию Гуглом яваскрипта и аякса видимо будет ловиться не только "по стуку", правильно понимаю?---------- Добавлено 12.03.2012 в 15:41 ----------
хотя возможно не всё так очевидно. На сколько я знаю - клоакинг - это полная замена содержимого страницы/сайта, а в моём случае меняется только незначительная часть внизу страницы. Причём меняется фактически на синоним.
Я думаю тут нужны конкретные факты. У вас был подобный опыт?
я веткой не ошибся?
если я правильно понимаю - поисковики не так быстро двигаются вперед и ещё не разбирают сложный Javascript и Ajax. Может быть я что-то упустил, нет?
моё мнение: не скоро ещё динамика будет индексироваться - слишком много ресурсов потребуется у поисковиков, да и поле для дорвейщиков будет огромным просто, например: запутать поисковика в программном коде и в конце выдать ему то, что тебе нужно...
Так и не понял что это было... И главные вопросы: 1. несёт ли это вред для моего сайта? 2. говорит ли это о бреше в безопасности моего сайта?
Я склоняюсь к тому, что просто ставятся ссылки с url вида мой.сайт/?domain=продвигаемый.сайт они учитываются ПС и видимо каким-то образом влияют на ранжирование. Кто-нибудь знает такой вид продвижения? Как он называется? И если это действительно так можно ли это использовать в свою пользу перенаправляя ссылки на главную страницу (по сути она и открывается, т.к. cms не знаком такой параметр domain)
И да, поставил плагин anti-xss-atack на всякий пожарный, но что-то мне подсказывает, что это не XSS---------- Добавлено 30.01.2012 в 18:06 ----------Нашёл решение! может пригодится кому...
Нужно прописать в robots.txt строчку Disallow: *?*, это работает если у вас на сайте настроены ЧПУ и все лишние страницы с параметрами просто не будут входить в индекс.
Для Яндекса выглядит примерно так:
User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: *?*
Host: ваш.сайт
взял у ТС два сата, посмотрим, поэкспериментируем
ТС хороший человек и профессионал своего дела. Взял базу, буду прогонять свои сайты - по результатам отпишусь. ТС проконсультировал по многим вопросам касательно прогона, сразу видно, человек в этом собаку съел... жаль только базу больше не будет продавать...
лучше на выбор: выключение или режим кибернации, спящий режим.