Перефразирую: на доменБ с поддоменами и подпапками, с которыми Гугл почему-то "склеил" мой доменА, ссылаются линкопомойки — я допускаю, именно из-за этого существенно недолюблен доменА. ДоменБ мне не нужен, я с ним вожусь только в ходе расследования причин падения рейтинга доменА.
Да, конечно
Я никак не собираюсь, так как не знаю точно "что означают цифры в стате гугла" :)
Надеюсь, поможете разобраться.
У меня больше всего вызывает вопросов пересечение цифр из статистики. Более того, если смотреть историю помесячно за год, то "слоны полосатые" и "полосатые слоны" то совпадают по объему запросов, то нет. Еще более запутывает ситуацию то, что выдача по этим двум запросам на 100% разная.
Опять же, если прогнозировать трафик, но не отсечь повторные (полностью или частично?) цифры по похожим запросам, то реальной картины не будет. Или методика это учитывает? Можете подсказать, что лучше покурить на эту тему?
Вы имеете в виду "Инструмент ключевых слов" в AdWords?
Ничего похожего там не нашел.---------- Post added at 12:58 ---------- Previous post was at 12:55 ----------
Сейчас речь не о конкретных цифрах. Я хотел бы узнать, есть ли возможность оценить реальное количество запросов (не трафика) по доступной в AdWords статистике. Я более чем уверен, что, суммарно, вышеупомянутых слонов искали не 100к+100к+90к+85к раз, и даже не 100к+90к+85к.
В статистике запросов AdWords такая картина:
полосатые слоны - 100000
слоны полосатые - 100000
полосатый слон - 90000
слон полосатый - 85000
(слоны выдуманные)
На 146% уверен, что первые две 100к — одно и то же. Есть подозрение, что остальные приведенные запросы тоже пересекаются. Есть какая–то методика фильтрации/нормализации таких цифр, чтобы точную картину получить?
Мой сайт с 13-го числа по несколько раз в день прыгает между 23, 24, 34, 36 позициями в выдаче по ВЧ. В сохраненке версия от 06.12.2011.
Один раз, когда ненадолго в сохраненке появилась версия от 12.12.2011, даже поднялся до 6-й позиции.
Это при том, что до 13.11.2011 два года был стабильно на 1-м. Надеюсь, когда эти Яндекс–дикие–танцы закончатся, вернусь именно к этому (скрестить пальцы) результату :)
Кольца немного прокачиваются, на страницах из меню это никак не отображается (значительно) — ожидаемо.
Но задача-то у меня стоит оптимизаровать главную.
Попробую. Но сейчас страницы со сквозными ссылками имеют вес ~20, а остальные до 5 — разброс драматический. И повлияет ли что-либо на вес главной, если на нее и так ссылается 100% страниц?
Единственное, что приходит в голову, это убрать в моделировании "лишние" ссылки на главную и разделы из сквозного меню. Но как-то это неправильно.
Из 100 страниц на сайте, ссылка на 5 находятся в меню (сквозное, на каждой странице), плюс ссылка на главную тоже есть на каждой.
Для 5 страниц из меню и главной программа выдает количество входящих ссылок = 100.
Но на главную, например, ведут дополнительные ссылки из текста некоторых страниц.
Правильно я понимаю, что учитывается только одна ссылка со страницы А на страницу Б при анализе веса?
Подскажите, пожалуйста, как тогда прокачать главную (смоделировать это в программе), если не закрывать меню в noindex/nofollow? Или noindex/nofollow для навигации — must have?
Спасибо!
У меня блок подгружается вот таким кодом:
var lnk = '/bloc' + 'ks/foote' + 'r_links.data'; new Ajax.Updater('ftr-lnks-upd', lnk);
Так Googlebot ломится теперь по адресу /bloc и попадает на 404, которых уже 10 штук в ошибках индексирования в WMT скопилось.
Они, получается, наполовину как-то парсят js-код :)
Кто подскажет, как теперь правильней ajax-подгрузки от ботов скрывать?
(/bloc в robots.txt уже закрыл)