Павел

Рейтинг
160
Регистрация
23.01.2006

День добрый!

Хотелось бы услышать комментарии по поводу сайта http://1bt.spb.ru

Никак не клеится данный основной домен с дополнительным 1bt-spb.ru (сайт сугубо региональный, потому и гео-домен выбран основным).

Что сделано:

1. Настроен XML-сайтмап

2. Сделана 301 переадресация

3. Ссылки, какие есть, стоят только на основной домен

И все равно Гугль видит оба домена, считает их разными. В GWT указать домен 3го уровня как основной нельзя. Результат сего косяка - неполная индексация сайта и наличие дубля-зеркала, что я так понимаю, тоже не есть хорошо.

Ну и в целом по аудиту сайта что можно сказать? Буду крайне благодарен.

kimberlit:
Зачем две, если можно одну?

Ну для надежности. ТС же просил вполне конкретные виды урлов убирать. Следовательно, мое правило рубит урлы вида:

/directory/index/?...

/index/?...

но не трогает урлы вида:

/directory/index.php?...

/index.php?...

Да ничего не поможет.

Сам удаляю уже 3 недели сайт, в индексе было ~40 страниц. Поставил отдаваться 404 по всем (пустые страницы мс заголовком соответствующим вместо целевых страниц сервер выдает). До сих пор в индексе 15 страниц.

Яндекс просто очень медленно обновляет базу и удаляет ушедшие страницы. Дело может затянуться крайне на долго...

Вообще то в URL результатов поиска есть такой параметр как lr=

вот в значение его подставить цифру искомого региона из http://search.yaca.yandex.ru/geo.c2n

И в двух открытых окошках выдачу и сравнивать.

Пример:

http://yandex.ru/yandsearch?text=%D0%BC%D0%BE%D1%80%D0%BE%D0%B6%D0%B5%D0%BD%D0%BD%D0%BE%D0%B5&lr=213 (Москва)

http://yandex.ru/yandsearch?text=%D0%BC%D0%BE%D1%80%D0%BE%D0%B6%D0%B5%D0%BD%D0%BD%D0%BE%D0%B5&lr=39 (Ростов-на-Дону)

Так что тулза то и не нужна по сути. Хоть и поудобнее было бы.

Для пущей безопасности можно написать такую конструкцию. Кстати, User-agent: * - это вообще все роботы, а регулярные выражения понимают по моему только Яндекс и Гугль. Так что смотрим ниже:

User-agent: *

Disallow: /?

User-agent: Googlebot

Disallow: /?

Disallow: /*/?

User-agent: Yandex

Disallow: /?

Disallow: /*/?

В общем, где-то так маски можно построить.

Для роботов, кроме Яндекса и Гугля, к сожалению, придется писать весь список. Либо как вариант, дополнить проверкой на наличие get-переменной (-ных) всех или запрещенных проинициализированных в программном коде, и при соблюдении условия в <head> страницы добавлять <meta name="robots" content="noindex,nofollow" />

Работает через раз что ВМП, что партнерский интерфейс Маркета. Что-то там перенапряглось явно сильно =)

JohnGonzo:
Недолго музыка играла, недолго фраер танцевал: пошел откат посещаемости. На сейчас по данным LiveInternet уже -13, по сравнению со вчерашним днем. Уже привычное дело - эти качели. Причин не знаю - всё к яндексу. Или кто что понимает, кроме него?

А не проверяли, из каких регионов идет та доля трафа, которая в ходе апа появляется и исчезает по завершению оного? Возможно не из вашего целевого?

Допускаю, что в ходе апа сайт может получать дополнительную посещайку из выдач других регионов.

Сужу по своим проектам, из числа тех, на которые в ходе апа начинает приростать траф (по контактам, на самом деле, начинают звонить-писать люди из нецелевых регионов).

Был и случай обратный, когда в ходе апа на сайт снижалась посещайка, после окончания апа - выправлялась к логичным значениям.

точно сказать не могу, но в рамках описания траст-ранка Гугля за такие ссылки уровень доверия к сайту снизится. Скорее всего, аналогичные принципы есть и у Яши, так что прямые текстовые ссылки пусть не бан, но санкции могут повлечь. Ведь Яша умеет отличать худо-бедно адалт-сайты (качество этой его способности счас вне обсуждения), значит целевые домены будут в определенном его списке "специфических" сайтов.

В любом случае, что мешает поставить те же ссылки в текстовом виде, но формируемые JS-кой на лету (то есть вплоть до отсутствия <a href="..."> как такового)? Главное же, чтобы человек кликнул и перешел по целевому урлу? А onclick событие можно прикрепить к любому элементу, будь то хоть span (при том на лету, по классу например, на событие загрузки страницы). Или условия партнерки таких вольностей не допускают?

wilelf:
Нет. Это неверный ответ. Эта цифра никогда не покажет точную частоту запроса. Это сумма показов по точной словоформе. Учите матчасть :).

Извините, ТС, но матчасть мне учить не надо :) Картинка относилась не к фразе "вот решение задачи", а к значительно более выше расположенному тексту. А полную процедуру я Вам расписывал собственно всем текстом сообщения, со всеми возможными оговорками. Можно было потрудиться и прочитать весь пост, а не только последнюю фразу, Вы уж извините за некоторую резкость.

То есть последнюю фразу первого поста стоит читать так: "В простом виде исполнение всех вышеперечисленных условий в алгоритме анализатора, который Вы сами себе напишете - есть решение Вашей задачи, ТС."

Смотрите на следующее:

запрос = сам запрос плюс все производные от него

"запрос" = все обращения, состоящие из одного только слова запроса, в разных словоформах

"!запрос" = значение показов в точной словоформе, только по самому слову запроса, без производных.

Если запрос геозависимый, то желательно также в Вордстате выставлять целевой регион.

Ну и смотреть надо цифру не из таблички, а над ней (см. в аттаче).

Далее можно пользоваться либо чисто схемой, предложенной Wings Of Fury, либо дополнительно поделить количество где-то на 1.5 в среднем (но тут сугубо от тематики зависит, сколько страниц выдачи один пользователь в среднем просматривает).

Проверить геозависимость на автомате можно, сравнив выдачи по нескольким регионам по этому запросу. Если идентичны, то ГНЗ, если различаются = ГЗ. Это автоматизируется достаточно просто.

В простом виде вот решение Вашей задачи, ТС.

gif wordstat-stat.gif
Всего: 257