- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте уважаемые форумчане!
Есть личный проект на zend framework. Возник вопрос по удалению некоторых страниц из индексации (дублей).
Во-первых страницы типа мойсайт.ру/catalog/view/106/?cid=0
гугл умный, он страницы с ?cid=0 сам блокирует по групповому признаку, а вот яндекс не дошел еще до этого.
По какому признаку убрать в роботсе страницы с ?cid=0 ?
Также интересует вопрос по страницам, которые характеризуют источник захода с соц. сетей типа:
мойсайт.ру/review/486/#.UTL43I4WOrI.facebook
По какому признаку и каким образом можно удалить из индекса эти страницы? Опять же, гугл их игнорирует, яндекс индексирует и бросает в выдачу.
На сайте яндекса нашел конечно объяснения по второму варианту, но применить по признаку в своём варианте не смог. Кто сможет помочь, искать источник по разделу Директива Clean-param, или был опыт в прошлом.
Может вы поймете как использовать эту функцию в моём случае.
Спасибо огромное за помощь.
Disallow: *?cid=0
Disallow: *.facebook*
Disallow: *?cid=0
Disallow: *.facebook*
Disallow: *?cid=0 - подошло.
Второе нет, всё-таки ко второму надо использовать раздел, который я указал, но применить его не могу.
review/486/#.UTL43I4WOrI.facebook - разрешен.
А с # индексируются?
А с # индексируются?
Да, индексируется только в яндексе. Это из-за соц кнопок, сделано чтобы определять источник захода, хотя я изначально этого не планировал, но такого рода ссылки попадают в выдачу яндекса как полноценные. Не могу толком сформулировать в роботсе директиву клиа делей.
Не могу толком сформулировать в роботсе директиву клиа делей
А она тут каким боком?
А она тут каким боком?
Пардон, Clean-param
Пардон, Clean-param
А где у тебя тут параметры во втором урл?
А где у тебя тут параметры во втором урл?
Смотри. По яндексу
параметр 'ref=' используется только для того, чтобы отследить с какого ресурса был сделан запрос и не меняет содержимое, по всем трем адресам будет показана одна и та же страница с книгой 'book_id=123'. Тогда, если в robots.txt указать:
у меня в ссылке нет параметра по типу "ref" который присутствует во всех урлах такого типа, сходный только знак #. и всё :(
Например несколько ссылок:
catalog/review/87/#.UQfNNRiQ1p4.twitter
/catalog/review/486/#.UTL43I4WOrI.facebook
/catalog/review/101/#.UQlUN751mBI.vk
Вот такая вот ерунда...
Вот такая вот ерунда...
Это не параметры. И дай ссылку посмотреть в индексе.
Это не параметры.
Я показал ссылки страниц, которые вываливаются в индекс. Просьба помочь с составлением строк для блокировки таких страниц в роботсе. В урлах не видно того, что необходимо для оценки возможности удаления? Что еще нужно?
---------- Добавлено 27.04.2013 в 15:21 ----------
Это не параметры. И дай ссылку посмотреть в индексе.
Сейчас попробую найти, сегодня была выдача просто.
---------- Добавлено 27.04.2013 в 15:27 ----------
Это не параметры. И дай ссылку посмотреть в индексе.
Проверил пару сотен, сегодня яндекс убрал с индекса страницы такого типа, хотя они были в индексе несколько недель. Особенно появляются тогда, когда кто-то из юзеров добавляет страницу в твитер, вк или другую соц. сеть.
И всё же...на будущее вопрос актуален о блокировке такого типа страниц в выдаче, даже если их яндекс удаляет спустя некоторое время, значит они доступны для индексирования как полноценные страницы, хотя являются бесполезными дублями.