Разместился. Удобная эксель-форма заказа. Всё точно в срок!
Регулярно заказываю копирайт (по ключам) у Игоря. Результат всегда в оговоренный срок, текст читается на ура. НЧ/СЧ вылазят после пары АПов
Если у вас по двум и более адресам одинаковый контент - это дублирование.
Закрывайте чем вам удобно:
robots.txt
Meta robots
Meta canonical
htaccess 301
Или попробуйте перенастроить dle. Уверен есть специалисты
dustyo_O, estetsseo
хлебные крошки и навигация пользователя
dag, формируйте рабочие урлы. Не за что =)
dag, отключайте js в браузере и смотрите как ведет себя модуль. Делайте так, чтобы при отключенном js работало "по-старинке". Тогда Яндекс проиндексирует как надо
Shivana, если вы предлгаете ставить canonical на старом урле - он вес не передает (судя по мнениям), как передает его 301. Если на новом урле ставить canonical, то простой вопрос "а зачем?"
Три пути:
1) В .htaccess прописать переадрессацию с 301 ответом. Как правило вручную и если страниц не много
2) Скрипт, который обрабатывает 404 ошибку и выдает 301 с редиректом
3) Новую "систему" адаптировать чтобы все было на старых адресах
Вам предлагают первый или второй вариант. Соглашайтесь, другого ничего нет. Позиции через некоторое время должны перебраться на новые адреса (на которые по 301 ответу перевод). "Должны" не значит что 100% переберутся.
Новые ссылки ставить на новый адрес
greenlen, думал что то интересное предложите. А вы про очевидное =)
Mixasik, 301 категорически отметается в моем случае
Slavietto, _Dyx Спасибо! robots.txt конечно проверенно надежен. Придумаю паттерн закрытия тысяч страниц =)
Во благо и удобства навигации для посетителя
greenlen вы про какой noindex? В meta или парный тег?
А по canonical'у не провидилось никаких экспериментов? Он не переносит вес как 301 ошибка?