sergey885

sergey885
Рейтинг
248
Регистрация
19.08.2002

играюсь с пробной версией ранктрекера, но ни по одному запросу нет результатов в гугл.usa

это из-за пробной версии или просто не повезло?

умный кот, понял что теперь путинский собак рулит и свалил по-быстрому....

rogerrogers:
Это фильтры лил бан,и как определить что и почему?

прочитать последние 5-6 страниц этого форума

если не поймете что, то хотя бы научитесь задавать вопросы так, чтобы вам отвечали оптимизаторы, а не бабки-гадалки

Sower:
В общем дела такие... ссылку я не снял, ни чего не добавлял, сайт по прежнему хорошо ранжируется в гуле по всем запросам, а по запросу о котором топик - он вообще исчез. Нет уже и в 300, дальше не искал.

дальше и не надо. подождите, все вернется.

brunoid:
в Webmaster tools еще показываются ссылки с IP адреса сайта, на это обращать внимание или это нормально ?

не нормально, внимание обратить очень рекомендую

Игорь ( Родной Портал):

Ручное, умное продвижение выйдет сейчас на главные роли, имхо.

на ручном продвижении не перелопатить все те объемы информации, которые надо. биржи решали часть аналитических вопросов, а также влияли на стоимость ссылок в целом на рынке.

а умное продвижение выбрать или нет - лишь вопрос бюджета и сроков.

Обама:
Похоже нашёл причину... К сожалению невнимательность.

В Друпале модуль nodewords создаёт для каждой страницы Canonical URL типа site/node/123 это включено по умолчанию, но можно выключить. В свою очередь модуль Global Redirect по умолчанию не создаёт Canonical URL, но можно это включить и они выглядят, как site/nazvanie_stranici

Сейчас все Canonical URL перестроены.
Будем подождать......

все будет ок. у меня была точно такая же проблема месяца с два назад на одном из проектов. за месяц все вернулось =) правда, я немного твиттером это простимулировал

Обама:
Да, установлен. Кстати, в Яндексе изначально всё проиндексировано правильно.

проверьте, что с 301-ыми все ок

и на дубли проверьте

вопрос не в том, что сквозная ссылка, а в том, что она в rdf и оформлена как бредкрамбс - v:Breadcrumb

поэтому и выходит в сниппете...

Обама:
Хорошо, напишу подробнее.

Сайт имеет около 450 страниц, построен на Drupal. До недавнего времени все страницы имели по два адреса: site/node/123 и site/nazvanie_stranici К сожалению мной не были закрыты в robots.txt адреса первого варианта и гугл именно большинство из них проиндексировал, несмотря на то, что в sitemap указанны правильные адреса. Сейчас я запретил в robots.txt
User-agent: Googlebot
Disallow: /node/

Уже прошло около месяца, страницы типа site/node/123 из индекса выпали, но правильные адреса индексируются крайне медленно см. первый пост.

надеюсь, global redirect поставили?

Всего: 1799