Такой текст нормально индексируется (если программист правильно сделает). Но, как мне кажется, такой текст имеет меньший вес.
Так и хуже не становится. Только зря платить за них.
В конкретном случае, выгрузил все ссылки по ru.ahrefs.com + GWMT, кинул в dissalow и отправил "вежливое" письмо.
Позиции, после снятия всех ссылок остались на прежнем уровне.
Конечно, ведь при автоматическом фильтре они отвечают что не каких санкций не применяли к сайту.
september,
Снимают они, видимо что-то не правильно делаете.
nok123,
Может потому что лето?
А если брать за весь год, спрос на сайты только растет, вместе с конкуренцией. Появилось много фирм которые клепают сайты за копейки...
Все пункты нормальные кроме 4того. Зачем заказывать размещение ссылок на помойках?
Пока все приондексируется пройдет 1-2 месяца (каталоги не в счет).
1. Нет
2. Так и будет.
Какое количество PDF документов на сайте?
Попробуйте разбавить анкоры, используйте 2-4 словные фразы. "новый палатки", "лучшие палатки в России" и тд.
Unstoppable,
Возможно, трудно реализовать технически, с таким количеством рубрик и товаров.
Посмотрите как реализовано на сайте http://rozetka.com.ua/
Стоит, и для Description и Keywords тоже.
Есть 3 варианта:
1. Закрываем страицы в robots.txt и дописываем в код
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
2. Генерируем мета-теги для каждой такой страницы, в зависимости от выбранных параметров. То есть если вы выбрали по параметрам кофты, размер S, красный цвет, все это должно быть в мета-тегах.
3. Сделать фильтры на аяксе, чтоб урл не менялся.
Я бы выбрал второй вариант, больше страниц в поиске.
В странанах, которых указал ТС, нужен google. А для него поддомены не нужны. В WMT можно присвоить регион папкам для доменов верхнего уровня (com, net, org и тд)
Например
site.com - для америки
site.com/asia/
site.com/eu/