Outofscope

Рейтинг
56
Регистрация
03.08.2009

Перефразирую: на доменБ с поддоменами и подпапками, с которыми Гугл почему-то "склеил" мой доменА, ссылаются линкопомойки — я допускаю, именно из-за этого существенно недолюблен доменА. ДоменБ мне не нужен, я с ним вожусь только в ходе расследования причин падения рейтинга доменА.

easywind:
Это "на сервер с основным сайтом доменА.com" сделано?

Да, конечно

ArtPresident:
Как Вы собираетесь оценивать реальное кол-во запросов? :) Вы знаете алгоритмы гугла по которым он учитывает кол-во запросов? Если я смотрю 6 страниц выдачи по одному запросу - сколько раз счетчик гугла насчитает показов по данному запросу? Если я смотрю 10 раз в день по одному и тому же запросу выдачу до 10-ой страницы - сколько раз гугл посчитает по этому запросу?

А вот траф спрогнозировать по стате из гугла реально, если правильно понимать, что означают цифры в стате гугла по поисковым запросам.

Я никак не собираюсь, так как не знаю точно "что означают цифры в стате гугла" :)

Надеюсь, поможете разобраться.

У меня больше всего вызывает вопросов пересечение цифр из статистики. Более того, если смотреть историю помесячно за год, то "слоны полосатые" и "полосатые слоны" то совпадают по объему запросов, то нет. Еще более запутывает ситуацию то, что выдача по этим двум запросам на 100% разная.

Опять же, если прогнозировать трафик, но не отсечь повторные (полностью или частично?) цифры по похожим запросам, то реальной картины не будет. Или методика это учитывает? Можете подсказать, что лучше покурить на эту тему?

fdsfsfsdss:
в КС проверка на правильность фразы

Вы имеете в виду "Инструмент ключевых слов" в AdWords?

Ничего похожего там не нашел.

---------- Post added at 12:58 ---------- Previous post was at 12:55 ----------

ArtPresident:
Дайте цифры по точным вхождениям по каждому запросу именно Вашего региона, тогда можно будет дать и прогноз посещаемости ТОПа по этим запросам.

Сейчас речь не о конкретных цифрах. Я хотел бы узнать, есть ли возможность оценить реальное количество запросов (не трафика) по доступной в AdWords статистике. Я более чем уверен, что, суммарно, вышеупомянутых слонов искали не 100к+100к+90к+85к раз, и даже не 100к+90к+85к.

В статистике запросов AdWords такая картина:

полосатые слоны - 100000

слоны полосатые - 100000

полосатый слон - 90000

слон полосатый - 85000

(слоны выдуманные)

На 146% уверен, что первые две 100к — одно и то же. Есть подозрение, что остальные приведенные запросы тоже пересекаются. Есть какая–то методика фильтрации/нормализации таких цифр, чтобы точную картину получить?

Мой сайт с 13-го числа по несколько раз в день прыгает между 23, 24, 34, 36 позициями в выдаче по ВЧ. В сохраненке версия от 06.12.2011.

Один раз, когда ненадолго в сохраненке появилась версия от 12.12.2011, даже поднялся до 6-й позиции.

Это при том, что до 13.11.2011 два года был стабильно на 1-м. Надеюсь, когда эти Яндекс–дикие–танцы закончатся, вернусь именно к этому (скрестить пальцы) результату :)

Кольца немного прокачиваются, на страницах из меню это никак не отображается (значительно) — ожидаемо.

Но задача-то у меня стоит оптимизаровать главную.

Попробую. Но сейчас страницы со сквозными ссылками имеют вес ~20, а остальные до 5 — разброс драматический. И повлияет ли что-либо на вес главной, если на нее и так ссылается 100% страниц?

Единственное, что приходит в голову, это убрать в моделировании "лишние" ссылки на главную и разделы из сквозного меню. Но как-то это неправильно.

Из 100 страниц на сайте, ссылка на 5 находятся в меню (сквозное, на каждой странице), плюс ссылка на главную тоже есть на каждой.

Для 5 страниц из меню и главной программа выдает количество входящих ссылок = 100.

Но на главную, например, ведут дополнительные ссылки из текста некоторых страниц.

Правильно я понимаю, что учитывается только одна ссылка со страницы А на страницу Б при анализе веса?

Подскажите, пожалуйста, как тогда прокачать главную (смоделировать это в программе), если не закрывать меню в noindex/nofollow? Или noindex/nofollow для навигации — must have?

Спасибо!

У меня блок подгружается вот таким кодом:

var lnk = '/bloc' + 'ks/foote' + 'r_links.data';

new Ajax.Updater('ftr-lnks-upd', lnk);

Так Googlebot ломится теперь по адресу /bloc и попадает на 404, которых уже 10 штук в ошибках индексирования в WMT скопилось.

Они, получается, наполовину как-то парсят js-код :)

Кто подскажет, как теперь правильней ajax-подгрузки от ботов скрывать?

(/bloc в robots.txt уже закрыл)

12
Всего: 17