- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте уважаемые форумчане!
Есть личный проект на zend framework. Возник вопрос по удалению некоторых страниц из индексации (дублей).
Во-первых страницы типа мойсайт.ру/catalog/view/106/?cid=0
гугл умный, он страницы с ?cid=0 сам блокирует по групповому признаку, а вот яндекс не дошел еще до этого.
По какому признаку убрать в роботсе страницы с ?cid=0 ?
Также интересует вопрос по страницам, которые характеризуют источник захода с соц. сетей типа:
мойсайт.ру/review/486/#.UTL43I4WOrI.facebook
По какому признаку и каким образом можно удалить из индекса эти страницы? Опять же, гугл их игнорирует, яндекс индексирует и бросает в выдачу.
На сайте яндекса нашел конечно объяснения по второму варианту, но применить по признаку в своём варианте не смог. Кто сможет помочь, искать источник по разделу Директива Clean-param, или был опыт в прошлом.
Может вы поймете как использовать эту функцию в моём случае.
Спасибо огромное за помощь.
Disallow: *?cid=0
Disallow: *.facebook*
Disallow: *?cid=0
Disallow: *.facebook*
Disallow: *?cid=0 - подошло.
Второе нет, всё-таки ко второму надо использовать раздел, который я указал, но применить его не могу.
review/486/#.UTL43I4WOrI.facebook - разрешен.
А с # индексируются?
А с # индексируются?
Да, индексируется только в яндексе. Это из-за соц кнопок, сделано чтобы определять источник захода, хотя я изначально этого не планировал, но такого рода ссылки попадают в выдачу яндекса как полноценные. Не могу толком сформулировать в роботсе директиву клиа делей.
Не могу толком сформулировать в роботсе директиву клиа делей
А она тут каким боком?
А она тут каким боком?
Пардон, Clean-param
Пардон, Clean-param
А где у тебя тут параметры во втором урл?
А где у тебя тут параметры во втором урл?
Смотри. По яндексу
параметр 'ref=' используется только для того, чтобы отследить с какого ресурса был сделан запрос и не меняет содержимое, по всем трем адресам будет показана одна и та же страница с книгой 'book_id=123'. Тогда, если в robots.txt указать:
у меня в ссылке нет параметра по типу "ref" который присутствует во всех урлах такого типа, сходный только знак #. и всё :(
Например несколько ссылок:
catalog/review/87/#.UQfNNRiQ1p4.twitter
/catalog/review/486/#.UTL43I4WOrI.facebook
/catalog/review/101/#.UQlUN751mBI.vk
Вот такая вот ерунда...
Вот такая вот ерунда...
Это не параметры. И дай ссылку посмотреть в индексе.
Это не параметры.
Я показал ссылки страниц, которые вываливаются в индекс. Просьба помочь с составлением строк для блокировки таких страниц в роботсе. В урлах не видно того, что необходимо для оценки возможности удаления? Что еще нужно?
---------- Добавлено 27.04.2013 в 15:21 ----------
Это не параметры. И дай ссылку посмотреть в индексе.
Сейчас попробую найти, сегодня была выдача просто.
---------- Добавлено 27.04.2013 в 15:27 ----------
Это не параметры. И дай ссылку посмотреть в индексе.
Проверил пару сотен, сегодня яндекс убрал с индекса страницы такого типа, хотя они были в индексе несколько недель. Особенно появляются тогда, когда кто-то из юзеров добавляет страницу в твитер, вк или другую соц. сеть.
И всё же...на будущее вопрос актуален о блокировке такого типа страниц в выдаче, даже если их яндекс удаляет спустя некоторое время, значит они доступны для индексирования как полноценные страницы, хотя являются бесполезными дублями.