- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не получается закрыть в роботс дубли, содержащие такой вид:
домен.ру/#!/о-нас
Нагуглил Disallow: /*_escaped_fragment_ , а Платон дал такой ответ Disallow: *?_escaped_fragment_=* , в котором, почему-то отсутствует слеш (на встречный вопрос саппорт молчит более недели).
Оба варианта в роботс не позволяют отправить страницы на удаление через специальную форму яши. Посоветуйте решение проблемы из личного опыта.
с # это ж якоря, насколько я понимаю. Зачем их закрывать?
url в состав которых входит "#", не индексируются.
знак "#" в файле robots может использоваться только для обозначения служебных комментариев, все что после него не учитывается, и потому не работает
Если вам (из каких-то неведомых соображений) нужны доп гарантии не индексации этих страниц, юзайте rel=canonical
смена адресов через htaccess, крайний случай - редирект.
url в состав которых входит "#", не индексируются.
https://www.google.com/search?q=site:searchengines.ru+inurl:hash&filter=0
http://yandex.ru/yandsearch?text=inurl:escaped_fragment
Нагуглил Disallow: /*_escaped_fragment_ , а Платон дал такой ответ Disallow: *?_escaped_fragment_=* , в котором, почему-то отсутствует слеш
* подразумевает и /
т.е. должно хватить
Disallow: *_escaped_fragment_
Оба варианта в роботс не позволяют отправить страницы на удаление через специальную форму яши.
Забавно.
А в индексе урл с #!hash
но бот у сервака спрашивает с ?_escaped_fragment_=hash или ?бла-бла&_escaped_fragment_=hash
в роботсе запретите _escaped_fragment_
Когда получится — напишите как.
url в состав которых входит "#", не индексируются.
знак "#" в файле robots может использоваться только для обозначения служебных комментариев, все что после него не учитывается, и потому не работает
Если вам (из каких-то неведомых соображений) нужны доп гарантии не индексации этих страниц, юзайте rel=canonical
они есть в вебмастере этого сайта
---------- Добавлено 23.02.2014 в 14:25 ----------
смена адресов через htaccess, крайний случай - редирект.
Можете поподробнее?
---------- Добавлено 23.02.2014 в 14:28 ----------
https://www.google.com/search?q=site:searchengines.ru+inurl:hash&filter=0
http://yandex.ru/yandsearch?text=inurl:escaped_fragment
* подразумевает и /
т.е. должно хватить
Disallow: *_escaped_fragment_
А в индексе урл с #!hash
но бот у сервака спрашивает с ?_escaped_fragment_=hash или ?бла-бла&_escaped_fragment_=hash
в роботсе запретите _escaped_fragment_
Правильно ли я вас понял, исправить на Disallow: *_escaped_fragment_
Dismissed, http://webmaster.yandex.ua/robots.xml, протестировать
богоносец, спасибо за ссылки. В свое время был здесь спор за индексацию url с #, и я как раз стоял за то, что, да – индексируются, потому как видел в индексе. Но набежали технари, заверили что это невозможно и потребовали пруф, я не нашел… пришлось менять позицию 😡
ПС
Dismissed, rel=canonical, в любом случае решает проблему
А с #hash не индексится. С #!hash только если не запрещено индексить урлы с _escaped_fragment_
это костыль для индексации AJAX.
Правильно ли я вас понял, исправить на Disallow: *_escaped_fragment_
Не знаю. Не приходилось...
всё зависит от того, на что смотрит delurl и т.п.
Может быть проще ответить 404 (301) на запрос с #! или _escaped_fragment_ или с ? если в правильных урлах параметров нету.