martikus

Рейтинг
97
Регистрация
02.07.2010

Закрытие в роботсе дублей не гарантирует не попадания их в выдачу.

Попробуйте после тэга <head> на страницах дублей поставить вот такую строчку:

<meta name="robots" content="noindex, nofollow" />

Должно помочь.

Gring0:
прогоняли по каталогам в 1ps

Я думал уже никто не гоняет этим сервисом.

Больше 10 дней уже прошло, было у кого то дольше?

Лучше конечно же ручная прописка тэгов. Автомат не заменит ручной труд.

АГС у вас.

Saros777:
Есть ли способ быстро наполнять, статический сайт на html, чтоб не в ручную делать изменения(если вдруг понадобится) на каждой странице, скрипт или что-нибудь подобное?

А возможности перенести сайт на движок нет?

-RU-:
но как обстоят дела с этим у Друпала?

Одна из самых безопасных систем.

Очень слабый выкуп, даже и близко сравнивать с Sape не стоит.

Через форму удаляйте, но фильтр у вас не из-за внешних ссылок.

Всего: 345