- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые форумчане!
Возник вопрос в процессе работы. На сайте были заменены динамические урлы на статические с помощью mod_rewrite.
По новым урлам вопросов нет, все работает отлично. Но дело в том, что по динамическим старым урлам те же странички тоже доступны, а это означает, что поисковики проиндексируют новые ссылки и будут продолжать дальше индексировать старые, увидят, что на сайте дублируется контент и накажут. Надо бы как-то предотвратить это.
Были попытки сделать 301 редирект со старых страниц на новые, но что-то не получается, возможно что-то неправильно делаю потому как не очень разбираюсь в этих вопросах. У меня возникла мысль может быть старые странички просто запретить к индексации? Или может быть у вас есть какие-то другие мысли по этому поводу.
Вобщем если у кого-то есть практических опыт решения подобных задач, прошу поделиться дельными советами
В robots.txt закрывается. Покажите, как у Вас выглядит динамический URL. http://сайт.ру/… а дальше?
Всё же лучший вариант — закрыть их индексацию для «пауков» через robots.txt. Лишний контент не попадёт поисковому роботу на глаза, а посетители всё равно смогут ходить по старым адресам.
Или может быть у вас есть какие-то другие мысли по этому поводу.
Вобщем если у кого-то есть практических опыт решения подобных задач, прошу поделиться дельными советами
рекомендую также сделать редирект дублей одной и той же страницы на основной ее адрес
Спасибо всем за советы.
Динамические урлы выглядят так http://www.site.ru/page.php?id=1
Сделаю наверное все-таки запрет в robots.txt, только осталось подумать над тем, как это правильно прописать, если кого не затруднит приведите пример файла robots или какого нибуть правила запретного.
Зареннее спасибо!
Спасибо всем за советы.
Динамические урлы выглядят так http://www.site.ru/page.php?id=1
Сделаю наверное все-таки запрет в robots.txt, только осталось подумать над тем, как это правильно прописать, если кого не затруднит приведите пример файла robots или какого нибуть правила запретного.
Зареннее спасибо!
Если все старые ненужные страницы имеют такой вид, то в robots надо прописать что-то типа
User-agent: *
Disallow: /page.php?id=*
Если все старые ненужные страницы имеют такой вид, то в robots надо прописать что-то типа
User-agent: *
Disallow: /page.php?id=*
Спасибо большущее!!!☝