- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Из-за бага в CMS, которая использовалась для создания сайта, внутренние ссылки выводились не верно, в результате чего каждая страницы была доступно по нескольким адресам.
Допустим новость dome.ru/news_254/1/, была так же доступна по адресу
dome.ru/news_254/4/
dome.ru/news_254/5/
dome.ru/news_254/6/
Что вызвало появление дублей. В итоге Яндекс проиндексировал сайт как попало.
Я убрал с сайта ссылки на дубли страниц, и теперь на сайте нет не верных ссылок, но если ввести в ручную в командную строку левый адрес, то страница открывается.
Как теперь сделать, так что бы Яндекс переиндексировал сайт с верными адресами страниц?
Какой метод лучше:
1) Запретить в robots.txt, не верные адреса страниц
2) Запретить в htacces, доступ к не верные адреса страниц
3) Яндекс сам выкинет из индекса страницы, на которые не ссылается ни одна внутренняя страница.
Яндекс перестраивает карту сайта? Как я упомянул, вывод левых ссылок я убрал, но дубли страниц до сих пор доступны, если ввести адрес в ручную, Поэтому возникает предположение, если Яндекс каждый раз строит карту сайта, то он сам должен выкинуть дублирующие страницы, потому что на них нет ссылок и съесть страницы по правильным адресам.
robots.txt вы не сможете - синтаксис не позволяет
Для Гугл я бы редирект 301 поставил, и можно про баг и не думать. Для яндекса тоже наверно должно сработать, но яндекс я пока плохо знаю - не уверен
Из-за бага в CMS, которая использовалась для создания сайта, внутренние ссылки выводились не верно, в результате чего каждая страницы была доступно по нескольким адресам.
Допустим новость dome.ru/news_254/1/, была так же доступна по адресу
dome.ru/news_254/4/
dome.ru/news_254/5/
dome.ru/news_254/6/
Что вызвало появление дублей. В итоге Яндекс проиндексировал сайт как попало.
Я убрал с сайта ссылки на дубли страниц, и теперь на сайте нет не верных ссылок, но если ввести в ручную в командную строку левый адрес, то страница открывается.
Как теперь сделать, так что бы Яндекс переиндексировал сайт с верными адресами страниц?
Какой метод лучше:
1) Запретить в robots.txt, не верные адреса страниц
2) Запретить в htacces, доступ к не верные адреса страниц
3) Яндекс сам выкинет из индекса страницы, на которые не ссылается ни одна внутренняя страница.
Яндекс перестраивает карту сайта? Как я упомянул, вывод левых ссылок я убрал, но дубли страниц до сих пор доступны, если ввести адрес в ручную, Поэтому возникает предположение, если Яндекс каждый раз строит карту сайта, то он сам должен выкинуть дублирующие страницы, потому что на них нет ссылок и съесть страницы по правильным адресам.
Имхо проще настроить CMS, или дописать, так, чтобы страницы которых не должно быть выдавали 404 ошибку. А так все предложенные варианты будут не по уму, ну не правильно это, когда ссылок нет, а страницы есть... третий вариант вообще не сработает сто про.
Чем так мучаться, проще CMS довести до ума! С обязательной страницой 404! Должно помочь, по крайной мере, у меня была такая же проблема с моим корпоративным сайтом, и вроде все решилось.
Удачи. :)
1) 404 по неверным урлам
2) robots.txt
Дело в том, что я пока смог только убрать ссылки на дубли. А как выдавать ошибку я не придумал. Используется CMS Joomla, кто то может доработать ее так что бы при обращении к дулю выдавалась ошибка?
Все ссылки на стать имеют вид
http://domen.ru/content/view/150/30/
Все ссылки на дубли заканчиваются /1/ по /15/ т.е.
http://domen.ru/content/view/150/1/
…
http://domen.ru/content/view/150/15/
Я прописал в htaccess:
RewriteEngine on
RewriteCond /1/$ !^/404.php [NC]
RewriteRule /1/$ /404.php
...
RewriteCond /15/$ !^/ 404.php [NC]
RewriteRule /15/$ /404.php
Помогло, но я не селен в mod rewrite, проверьте пожалуйста правильность, а то вдруг где то еще вылезет и будет еще хуже.
Есть наверно способ не писать 15 раз, а указать диапазон от 1 до 15, что то типа
RewriteCond /от 1 до 15/$ !^/404.php [NC]
$ - я так понял означает, что далее знаком уже быть не долно.
Можно еще добавить <meta name=robots content=none> в мета-теги для ошибочных страниц.
Имхо проще настроить CMS, или дописать, так, чтобы страницы которых не должно быть выдавали 404 ошибку. А так все предложенные варианты будут не по уму, ну не правильно это, когда ссылок нет, а страницы есть... третий вариант вообще не сработает сто про.
лучше 301 с редиром на единственную оставленную страницу
Яндекс, кстати - тоже учитывает, даже более того - мне показалось любит:)
Сделал 404 на дублях, что то другое реализовать не смог.
Сделал 404 на дублях
успокойтесь на этом, и ждите