День добрый!
Хотелось бы услышать комментарии по поводу сайта http://1bt.spb.ru
Никак не клеится данный основной домен с дополнительным 1bt-spb.ru (сайт сугубо региональный, потому и гео-домен выбран основным).
Что сделано:
1. Настроен XML-сайтмап
2. Сделана 301 переадресация
3. Ссылки, какие есть, стоят только на основной домен
И все равно Гугль видит оба домена, считает их разными. В GWT указать домен 3го уровня как основной нельзя. Результат сего косяка - неполная индексация сайта и наличие дубля-зеркала, что я так понимаю, тоже не есть хорошо.
Ну и в целом по аудиту сайта что можно сказать? Буду крайне благодарен.
Ну для надежности. ТС же просил вполне конкретные виды урлов убирать. Следовательно, мое правило рубит урлы вида:
/directory/index/?...
/index/?...
но не трогает урлы вида:
/directory/index.php?...
/index.php?...
Да ничего не поможет.
Сам удаляю уже 3 недели сайт, в индексе было ~40 страниц. Поставил отдаваться 404 по всем (пустые страницы мс заголовком соответствующим вместо целевых страниц сервер выдает). До сих пор в индексе 15 страниц.
Яндекс просто очень медленно обновляет базу и удаляет ушедшие страницы. Дело может затянуться крайне на долго...
Вообще то в URL результатов поиска есть такой параметр как lr=
вот в значение его подставить цифру искомого региона из http://search.yaca.yandex.ru/geo.c2n
И в двух открытых окошках выдачу и сравнивать.
Пример:
http://yandex.ru/yandsearch?text=%D0%BC%D0%BE%D1%80%D0%BE%D0%B6%D0%B5%D0%BD%D0%BD%D0%BE%D0%B5&lr=213 (Москва)
http://yandex.ru/yandsearch?text=%D0%BC%D0%BE%D1%80%D0%BE%D0%B6%D0%B5%D0%BD%D0%BD%D0%BE%D0%B5&lr=39 (Ростов-на-Дону)
Так что тулза то и не нужна по сути. Хоть и поудобнее было бы.
Для пущей безопасности можно написать такую конструкцию. Кстати, User-agent: * - это вообще все роботы, а регулярные выражения понимают по моему только Яндекс и Гугль. Так что смотрим ниже:
User-agent: *
Disallow: /?
User-agent: Googlebot
Disallow: /*/?
User-agent: Yandex
В общем, где-то так маски можно построить.
Для роботов, кроме Яндекса и Гугля, к сожалению, придется писать весь список. Либо как вариант, дополнить проверкой на наличие get-переменной (-ных) всех или запрещенных проинициализированных в программном коде, и при соблюдении условия в <head> страницы добавлять <meta name="robots" content="noindex,nofollow" />
Работает через раз что ВМП, что партнерский интерфейс Маркета. Что-то там перенапряглось явно сильно =)
А не проверяли, из каких регионов идет та доля трафа, которая в ходе апа появляется и исчезает по завершению оного? Возможно не из вашего целевого?
Допускаю, что в ходе апа сайт может получать дополнительную посещайку из выдач других регионов.
Сужу по своим проектам, из числа тех, на которые в ходе апа начинает приростать траф (по контактам, на самом деле, начинают звонить-писать люди из нецелевых регионов).
Был и случай обратный, когда в ходе апа на сайт снижалась посещайка, после окончания апа - выправлялась к логичным значениям.
точно сказать не могу, но в рамках описания траст-ранка Гугля за такие ссылки уровень доверия к сайту снизится. Скорее всего, аналогичные принципы есть и у Яши, так что прямые текстовые ссылки пусть не бан, но санкции могут повлечь. Ведь Яша умеет отличать худо-бедно адалт-сайты (качество этой его способности счас вне обсуждения), значит целевые домены будут в определенном его списке "специфических" сайтов.
В любом случае, что мешает поставить те же ссылки в текстовом виде, но формируемые JS-кой на лету (то есть вплоть до отсутствия <a href="..."> как такового)? Главное же, чтобы человек кликнул и перешел по целевому урлу? А onclick событие можно прикрепить к любому элементу, будь то хоть span (при том на лету, по классу например, на событие загрузки страницы). Или условия партнерки таких вольностей не допускают?
Извините, ТС, но матчасть мне учить не надо :) Картинка относилась не к фразе "вот решение задачи", а к значительно более выше расположенному тексту. А полную процедуру я Вам расписывал собственно всем текстом сообщения, со всеми возможными оговорками. Можно было потрудиться и прочитать весь пост, а не только последнюю фразу, Вы уж извините за некоторую резкость.
То есть последнюю фразу первого поста стоит читать так: "В простом виде исполнение всех вышеперечисленных условий в алгоритме анализатора, который Вы сами себе напишете - есть решение Вашей задачи, ТС."
Смотрите на следующее:
запрос = сам запрос плюс все производные от него
"запрос" = все обращения, состоящие из одного только слова запроса, в разных словоформах
"!запрос" = значение показов в точной словоформе, только по самому слову запроса, без производных.
Если запрос геозависимый, то желательно также в Вордстате выставлять целевой регион.
Ну и смотреть надо цифру не из таблички, а над ней (см. в аттаче).
Далее можно пользоваться либо чисто схемой, предложенной Wings Of Fury, либо дополнительно поделить количество где-то на 1.5 в среднем (но тут сугубо от тематики зависит, сколько страниц выдачи один пользователь в среднем просматривает).
Проверить геозависимость на автомате можно, сравнив выдачи по нескольким регионам по этому запросу. Если идентичны, то ГНЗ, если различаются = ГЗ. Это автоматизируется достаточно просто.
В простом виде вот решение Вашей задачи, ТС.