nick_c

nick_c
Рейтинг
89
Регистрация
21.04.2008
Должность
CEO
Интересы
SEO, server administration
brunoid:
а как вам такой вариант - не переносить весь сайт 301 редиректом, а наплодить кучу сабдоменов, например под каждый продукт на сайте.

Например есть site.com который гавногугл зафильтровал. На этом сайте к примеру есть структура урл для различных продуктов:

site.com/products/product-name1
site.com/products/product-name1

так вот мы не будем переносить 301 редиректом site.com на другой домен а создадим поддомены для каждого продукта:

product-name1.site.com
product-name2.site.com

и пустим 301 редирект

site.com/products/product-name1 -> 301 redirect -> product-name1.site.com
site.com/products/product-name2 -> 301 redirect -> product-name2.site.com

Интересно, как гавнопоиск на это отреагирует..

Есть вариант пингвина, когда улетает все кроме главной. Тогда внутряки можно переносить на поддомены - прокатит. Когда же вылетает весь сайт - субдомены не помогут.

Кому за 500$ рассказать как выводить с помощью 301-ого? :)

---------- Добавлено 10.12.2012 в 21:34 ----------

_aleksey_:
Это не поможет. А если и поможет - не факт что на долго. Сам посуди - если у тебя отберут права на вождение автомобиля - ты побежишь менять ФИО чтобы получить новые?! Вот и тут как-то так.

Поможет, как уже писалось если сделать правильно. Тупой 301-ый с одного домена на другой тоже может помочь (есть успешные случаи).

1600$.......

arsenk:
Даже по куску контента без кавычек не самый первый.

Можете делать заново сайт.

И еще рекомендуется удалить текст на пагинаторе, независимо от того, закроете все с ? в роботсе, или нет.

Если оставлять сайт так как он есть, а он - ужасен, то Ваше решение такое:

1. в robots.txt - Disallow: /*?

2. Переименование всех категорий (изменение адресов страниц)

3. Запрет в robots.txt существующих категорий (до изменения страниц)

4. Удаление через Google WM тех категорий, которые были (опция удалить каталог)

5. На страницы фильтров на всякий случай укажите мета-тег <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

6. Если пытаетесь делать точки входа по разным городам, следите за текстовым описанием, не допускайте дублирования текстов.

7. И еще я бы сделал все УРЛы латиницей.

Всего: 687