- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Милованов Ю.С, я знаю как проверки делать, но ИМХО столько гемору из за ссылок! Зачем столько проверок? Если кому то и придет в голову наплодить вам страниц, то наплодят в любом случае
защиту гет запроса, да понятно, ну а на url.php&post что скажем? или url.php#post
это же тоже своего рода будли страницы!
Дубль? Ага! Давайте в роботсе еще запретим индексировать такие урлы и добавим пару десятков тысяч строк, чисто так для пищи роботу
Вообщето в роботсе такие урлы запрещаются одной строчкой, если что.
Милованов Ю.С, я знаю как проверки делать, но ИМХО столько гемору из за ссылок! Зачем столько проверок? Если кому то и придет в голову наплодить вам страниц, то наплодят в любом случае
защиту гет запроса, да понятно, ну а на url.php&post что скажем? или url.php#post
это же тоже своего рода будли страницы!
1) в массиве ГЕТ появиться ['post'] => '', то есть пустая строка, и соответсвенно наш фильтр с подсчетом ГЕТ данных даст отлуп в виде 404 страницы.
2) Яндекс(гугл не знаю) понимает решетки(метка определенной части страницы), и он знает, что это одна и та же страница. На хабре вроде бы про это было довольно красочно расписано. Да и что мешает Вам запретить решетки? В модРеврайте после \.html ставим $, что значит конец строки.
Если кто-то(на самом деле много человек) заморачивается с дублями - значит проблема есть.
Поиск дублей продолжается.... Найди дубль - получи жувачку:)
Поиск дублей продолжается.... Найди дубль - получи жувачку:)
вот как не крути, как не защищай, а дубли все равно будут! Точнее их можно будет создать, если это кому то понадобится.
А тут получается столько проверок, и поля сравни и редирект поставь и пару условий сделай, печаль одна, а ради чего? Ради того чтобы кто то с кривыми руками не запостил не правильный урл на сайт?
Я это перебор, хотя может кому то и важно это. Я лично по этому поводу не беспокоюсь, дергаю урлы по айдишнику, меньше кода, быстрее работа, да и сплю спокойно :) А те кто кидают линк на неправильный урл, за 5 лет наверное 2-3 раза было такое, то и пущай будет дублем, который склеют ПС, а не склеют, да и х_р с ними! 🤪
вот как не крути, как не защищай, а дубли все равно будут!...
с какого перепугу при нормальном подходе 😂 ?
на крайняк: жестко прописывать сгенерированные алиасы в поле БД (только и при каждом изменении страницы) по нему и искать/контролить урлы (по uniq индексу типа parent+alias, моментом). строк 10 лишних в коде редактора страницы - и никаких дублей принципиально...
строк 10 лишних в коде редактора страницы - и никаких дублей принципиально...
а не верю! :D
Дайте такой урл посмотреть, а я попробую дубль создать, если не создам, то бриться неделю не буду! 🤪
а не верю! :D
Дайте такой урл посмотреть, а я попробую дубль создать, если не создам, то бриться неделю не буду! 🤪
любой сайт на ModX c frendly URL`s (жёстко прописаны алиасы)
любой сайт на Yii c (включённый мозг) вставочкой в контроллере типа:
надо будет попробовать, глянуть, просто даже самому интересно стало
надо будет попробовать, глянуть, просто даже самому интересно стало
единственно что парит - отсекая GET-ы помнить о всяких сортировках и выборках, но от этого спасает canonical на чистый системный урл. так что оно особо и не нужно - ну откроется с левым GET-ом заведомо не индексиремый "дубль" и хрен с ним, заодно и мусор в индекс не просочится. хотя если параноить по полной - отсечь не долго и не трудно.
ЗЫ: бриться можно ;) ...
Да если все грамотно сделано - хрен Вы дублей надублируете:)
Попробуйте на локалке сделать то, что я говорил, и попробовать подобрать дубль(адрес другой, а страница та же)