- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Подскажите пожалуйста, у меня на сайте есть множество URL вида
Site.ru/man#ctl_page=2&ctl_filter=price,2700,3|price,14750,4&model=
общим правилом является наличие "ctl_page"
Прописываю в роботс указание
Disallow: /*ctl_page
но яндекс в вебмастере выдает, что страницы разрешены.
Я так понимаю, что это из-за знака # , без него все работает, но не совсем могу понять логику, ведь он находится не в robots.txt, где он будет восприниматься как пометка комментария, а в URL.
Хотелось бы понять причину данной ситуации, хотя подозреваю, что это скорее вопрос к программерам.
Заранее спасибо
Якорь # для браузеров, а не для роботов.
Уважаемый LEOnidUKG, данный якорь блокирует для понимания робота все, что находится после него?
Я пробовал указывать в переменной различные части URL которые идут после знака # но блокировать доступ робота к URL по ним не возможно, если указываю часть URL находящуюся до знака # Яндекс тут же все понимает и пишет, что доступ к URL запрещен.
Или Вы имеете ввиду, что все что после # относится исключительно к браузеру и не видно для поисковика?
По последним данным гугл очень хорошо их кушает. Раньше был только для браузера, но сейчас, что уж там, если гугл хром бегает по компьютеру и собирает данные.
Я думаю ТС, напишите лучше в Яндекс, там вам ответят, что сделать.
По последним данным гугл очень хорошо их кушает.
Не кушает. Должно быть то ли #!, то ли !#, чтоб Гугл зажевал.
По последним данным гугл очень хорошо их кушает.
Вот кэш ссылки на #якорь без нофоллоу.
Ищем с &filter=0
напишите лучше в Яндекс, там вам ответят
Ответ от 11.2010
пробовал указывать в переменной различные части URL которые идут после знака # но блокировать доступ робота к URL по ним не возможно
У вашего подопытного в индексе разных ПС есть страницы с такими урлами#c-якорями?
богоносец, ну значит на блогах врутЬ. :)
Не вруть, а не договаривають:
http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=174993
/ru/forum/649044
Но сцылки на #якоря могут появляться в крошках и под сниппетами богоизбранных. При этом в индексе остаётся одна страница...
А вот надо проверить:
Типа так /ru/news/11220