mark3000

mark3000
Рейтинг
115
Регистрация
29.08.2009

Подтверждаю отношение rafaello9, к проекту. Удачи в продвижении :)

Vadimts, Попробуйте пройти любой тест здесь: http://test.interascope.ru/ я думаю это то что Вам нужно. Если то самое, то могу подарить скрипт.

Нет не надо, просто проследите что бы на эти страницы не вели ссылки и они как было сказано выше отдавали 404 ошибку.

У Яндекса есть ограничение на вес файла robots.txt. По моему 10Кб. Если больше, то все засчитывается как "Allow" если не ошибаюсь... надо посмотреть, у них написано в руководстве.

если есть запрет на индексацию категорий на сайте в роботс.тхт , то нужно ли в ссылки на категории ещё помещать ноуфоллов, чтоб вес не перетекал?

Думаю нет необходимости. Вес по любому "утечет", но вот до адресата не дойдет. Лучше вообще не ставить ссылки туда куда не надо. Если же есть острая необходимость направить пользователя, то тут придется откавзываться от других ссылок, которые менее необходимы (если конечно хотите точно взвесить вес). Или вообще не заморачиваться по этому поводу :)

думаю если title "-купить ШКАФ из белоруссии" стоит на нескольких страницах то стоит менять, а если на каждой свой с нюансами типа "Купить "белый" шкаф и Белорусии" и "Купить "синий" шкаф из Белорусии", то наверное не стоит заморачиваться. В любом случае надо смотреть на выдачу. Если все нормально индексируется и посетители идут с ПС то все в порядке :)

А директивой "Clean-param" получится "склеить" ? Дубли все таки не есть хорошо.

"Пляски с бубном" думаю то же помогли, потому что бот быстрее обходит сайт и находит новые страницы. Ну и конечно "завихрения" от яндекса думаю так же имеют место быть :)

бан на всех сайтах или только на одном? Раскручивать под Яндекс или Google собираетесь?

Со всех страниц "сквозняк" то же не помешает. Хотя, тут можно и поумнее попробовать и набрать ключевых слов.

Интересный скрип, попробую подробнее. Переводите на десктоп будете конкурентом, а это полезно :)

Всего: 891