Дмитрий1231 #:
то наверное корректней десяток услуг засунуть в сайт\услуги\услуга1. Т.е. тут интересует не столько удобство пользователей, ..., как отдаленность от главной
Лучше удобство пользователейНе существенная вложенность ( отдаленность от главной). Стройте структуру сайта "дерево" и соответствующие быстрые ссылки сайта
- по тематической схожести, еще допиливаю некоторые страницы спустя время
По теме, ответа вебмастера: роботу нечего ходить по страницам сайта, если они уже проиндексированы.И для многих вебмастеров, если робот каждый день не обходит весь сайт - это все ужас))Таким у меня ответ: робот должен ходить только по новым или модифицированным страницам сайта. Чтобы он это соблюдал, нужно ему выдать данные. И роботы, более менее ( нарушая), эти данные соблюдают. И в связи с тем, что лимиты не тратятся зря, весь новый контент практически сразу индексируется. Нет проблем ни с Гуглом, ни с Яндексом по индексации, ни по нагрузке на сайт
Читать посты надо внимательно, а не привязываться к ВП или битриксуБерем первый попавшийся сайт на ВП и прокачиваем нужный нам сайт - ответ 200.Если вы не озаботитесь исправлением данного вопроса, вас будут спамить
Смысла может и не быть - ТЗ по выводу случайных постов не поставили, программист сделал как ему в голову пришло- Не вижу смысла
Да, затейливо,
Редирект этот надо конечно закрывать.
Теме лет уж, ну точно больше десяти- Это один из первых вопросов, который программист должен закрывать ( проверять) на сайте. Либо в движке, либо в htaccess- Это один из вопросов, которые нужно отслеживать в вебмастере - в истории обхода
Ну, хорошо, качают вес конкретно какому донору, если эти обращения перенаправлять в 403 результат?
Что они там "накачают"?
Ничего, поэтому и надо закрывать 200 или 301 редирект. Движок ВП к примеру отдает 200 на такую конструкцию, полный дубль. Который яндекс зачастую индексирует, не смотря на запрет
Блина, только сейчас посмотрел, твой сайт у меня в базе, значит и не только, сноси редирект или меняй адрес url редиректа
Роботс же не гарантирует непопадание в индекс. Размещай ссылки на стороннем сайте - и всё попадёт.
Да, это не ссылочный спам. Это вот что за история.
Вы просто с бурж не работали. - Ссылочный спам в независимости на какой CМS выполнен сайт. - Для спама, Главное чтобы сайт отдал 200 на данную конструкцию /?go=htttp и попасть в серверную вебстатистику, которую все ПС сканируют точно также как и ваш сайт- Если закрываете в роботс, то должен быть и запрет на папку webstat Лучше поставить запрет и на папку webstat и на конструкции /?go= /?goto= и тд
Как же не важно, если спамерам нужны именно проиндексированные беки, а индекса не будет?
Не важно. Спамерам Индекс не нужен. У меня в посте еще один пункт для закрытия. У 99% сайтов он открыт - webstat, вот туда и спамят
Steve Rambo #:Да какие беки, о чем вы, это лом. Слово bitrix там указано для отвода глаз. Тут уже была такая же тема.
C 13 ноября наблюдается взрывной рост количества страниц с параметром goto. Ссылки переправляют на всякий скам,
Финальный вопрос - что это? Зачем и кто может это делать?
Ссылочный спам, шлем на 404 в htaccess
<IfModule mod_rewrite.c>RewriteEngine OnRewriteCond %{THE_REQUEST} \?goto=(.*)$RewriteRule .* /$0 [R=404,L]</IfModule>
И закрываем серверную статистикуRewriteRule webstat/(.*) https://domen.ru [R=301,L]
но потом даты документа в поисковой базе обновились на актуальные, но эффекта это пока не дало.
Не спеша обновите даты документов, с изменениями в самом документеДата для программиста - это дата модификации документа
Может быстрее сработать, чем несколько месяцев