- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте!
Не нашел нигде информацию о том, как в robots запретить индексировать страницы в урлах которых имеется символ #.
Прошу помощи в этом вопросе.
Сначала покажите таковые в индексе
/ru/forum/928396
/ru/forum/928396
Сначала покажите таковые в индексе
/ru/forum/928396
/ru/forum/928396
Ну так я и не хочу, чтобы они попали в индекс.
Проблема такая. Есть урлы типа site.com/category
В них отображаются списком элементы. Эти элементы можно сортировать. При нажатии на ссылки сортировки к урлам добавляется #
site.com/category#
Если такие урлы в индекс не попадают - вопросов нет.
А если попадают - то это дубли.
Поэтому и спрашиваю.
Строго не судите.
Спасибо.
Сначала покажите таковые в индексе
встречаются и такие в индексе - пример
но в данном примере урлы не на якоря, а просто страницы сайта на аяксе
p.s. ни разу не видел в robots.txt запрета # , так как смысла в этом совершенно нету
но в данном примере урлы не на якоря, а просто страницы сайта на аяксе
Да, а индексируется их html копия (это видно по url'у).
vskrytijazamkovmoskva.ru/#otkryt-zamok/xj2qj
Вот хелп.
Насколько я помню обычные #хэш страницы не индексируются. Ну точнее индексируется url, но #хэш никак не влияет. То есть не будет site.ru/abc и site.ru/abc#asd в индексе, будет только site.ru/abc
Ну так я и не хочу, чтобы они попали в индекс.
Проблема такая. Есть урлы типа site.com/category
В них отображаются списком элементы. Эти элементы можно сортировать. При нажатии на ссылки сортировки к урлам добавляется #
site.com/category#
Если такие урлы в индекс не попадают - вопросов нет.
А если попадают - то это дубли.
Поэтому и спрашиваю.
Строго не судите.
Спасибо.
Попадают такие в индекс, если их движок генрит.
Заблокировать так в роботс
Disallow: /*#
если # в середине урл, то
Disallow: /*#*
А что означает символ # в robots.txt ?
встречаются и такие в индексе - пример
но в данном примере урлы не на якоря, а просто страницы сайта на аяксе
Ну #!таких гораздо больше, их можно прямо по хелпу:
Disallow: *_escaped_fragment_
Ну вот возьмём сцылку
Браузер делает запрос
А #post14380826 в HTTP запросе нету.
Но таких сцылок понаставлено на этом форуме куча. Можно попытаться их найти.
Насколько я помню обычные #хэш страницы не индексируются. Ну точнее индексируется url, но #хэш никак не влияет. То есть не будет site.ru/abc и site.ru/abc#asd в индексе, будет только site.ru/abc
+1
Нашел даже цитату Джона Мюллера по этому вопросу:
"We generally ignore the "fragments" (as in http://domain.com/path#fragment) when crawling, indexing and ranking since this is generally just something that is handled on the client side. There are some cases where we're experimenting with showing them in the snippet, to help users to find parts of a page quicker, so if you have large pages, that might be something to consider. You do not need to (& cannot) mention these fragments in Webmaster Tools."
https://productforums.google.com/forum/#!category-topic/webmasters/crawling-indexing--ranking/C0BTQOzy46U
Т.е. Гугл по большей части игнорирует данные фрагменты.
# - это обычный html якорь, в индекс не попадает
#! - это ajax, такие страницы индексируются.
Переживать не о чем.
богоносец, я бы уже не был столь уверенным
Попадают такие в индекс, если их движок генрит.
Заблокировать так в роботс
Disallow: /*#
если # в середине урл, то
Disallow: /*#*
Редкий случай когда в одном посте каждое слово ерунда.
не попадают если без !, не получится таким образом использовать знак # в роботс.
Весь сайт к индексации закроете )