Да, все эти ссылки будут включать все параметры: и значимые и те параметры, которые не должны учитываться. Поэтому robots.txt не вариант. ---------- Добавлено 11.05.2015 в 23:53 ---------- Ladycharm, Разумеется знаю для чего rel canonical. Но я не использую тег, т.к. поисковики просто не "кушали"новые ссылки сайта, пока не отключил canonical. Возможно следовало подождать некоторое время..
Да и просто хватало возможностей роботс, а тут задача посложнее. Попробую на этом проекте.
дани мапов, конечно, через robots.txt был бы самый простой вариант, но ведь все эти ссылки содержат и *ad_year_min= и ad_condition и остальные переменные...
То есть все ссылки фильтра окажутся под запретом?---------- Добавлено 11.05.2015 в 16:33 ----------Mad_Man, Аналогично ответу выше. В каждой ссылке содержаться эти переменные, которые не следует учитывать..---------- Добавлено 11.05.2015 в 16:41 ----------
Вариант с canonical кажется оптимальным. Я правильно понимаю, нужно сделать очередность параметров в ссылке, сначала важные параметры, которые индексируем и потом остальные не индексируем.
Их может следует разделить каким то символом в ссылке?
Нет, не вручную. В гугловебмастере есть список - его прошерстил и отправил список доменов гс в disavow-links. Получилось почти 400 урлов. Пока результатов нет.
Попробую по удалять, может часть получится.
Наверняка в этом и есть причина. Все верно, прошлый сеошники наплодили такого шлака с тупо тремя типами анкоров и одним доменным. Примерно 400 вечных статей таких на ГСах. Гоша спалил раньше, яша вот только. Расхлебывать мне. Вопрос, что делать?)
Платончик, как всегда:
"Мы постоянно совершенствуем поисковые алгоритмы, поэтому и выдача изменяется. Мы понимаем Вашу обеспокоенность столь заметным изменением позиций Вашего проекта, но, к сожалению, я могу лишь констатировать тот факт, что алгоритм сейчас работает корректно, никаких проблем с ранжированием Вашего сайта нет.
Спасибо за внимательное отношение к поиску и Ваше сообщение."
Можно поподробнее, что это значит?
Имеется ввиду, что написал где то "сайт такой то продвигаю в сапе"? А сотрудник яндекса увидел и наложил санкции?
Публично никогда и нигде, да особо и не продвигаем ссылками сейчас - реальные и только тематические.
Сомневаюсь, что тексты сразу во всем каталоге и на главной виноваты. Перемспама в текстах нет.
PS Сегодня после апа еще пару вылезло. Обнадеживает...
Ау!!! SEO профессионалы остались?
Готов отблагодарить за потраченное время и дельный совет.
Что значит 0? ты о чем?
Если компания компания продвигает свой сайт, то должен быть и контент. Как без контента продвигать страницы?!
Следует ли закрыть от индексации раздел с пдф документацией к товарам?
Вопрос в первую очередь к бизнесу. Если в PDF документах есть контакты фирмы, телефоны, название, то наверное можно и оставить так. Если это ПДФ производителей продукции, которую кроме вас много кто продает, то лучше закрыть от индексации такие ПДФ.
Мое ИМХО. ПДФ лучше закрыть от индексации, тк это поможет Яндексу выбрать наиболее релевантные (и для вас и для пользователя) страницы сайта, те страницы, где есть ссылки, контакты и тд. ПДФ - это для печати-пересылки. И еще лучше сделать чтобы ПДФ документы открывались в новом окне, чтобы посетитель не уход с сайта нажав на ссылку.
Да в Москве - ключевой регион.
В других изредка проверяю - пока вообще ничего... или очень мало.
Тоже самое 21 июня все улетело к черту, 28го несколько вернулось и сейчас снова улетело. Жесть!