redeye

Рейтинг
80
Регистрация
17.07.2009
ca12ae
totamon:
если у вас все ссылки со всеми параметрами, максимум можно выбрать какой-то один набор параметров и ему присваивать каноникал...

Да, все эти ссылки будут включать все параметры: и значимые и те параметры, которые не должны учитываться. Поэтому robots.txt не вариант.

---------- Добавлено 11.05.2015 в 23:53 ----------

Ladycharm, Разумеется знаю для чего rel canonical. Но я не использую тег, т.к. поисковики просто не "кушали"новые ссылки сайта, пока не отключил canonical. Возможно следовало подождать некоторое время..

Да и просто хватало возможностей роботс, а тут задача посложнее. Попробую на этом проекте.

дани мапов, конечно, через robots.txt был бы самый простой вариант, но ведь все эти ссылки содержат и *ad_year_min= и ad_condition и остальные переменные...

То есть все ссылки фильтра окажутся под запретом?

---------- Добавлено 11.05.2015 в 16:33 ----------

Mad_Man, Аналогично ответу выше. В каждой ссылке содержаться эти переменные, которые не следует учитывать..

---------- Добавлено 11.05.2015 в 16:41 ----------

Ladycharm:
На страницах с малозначительными параметрами надо ставить тэг

Тогда не потеряется вес внешних и внутренних ссылок на страницы с более длинным хвостом от
http://site.ru/?location=moscow_region&s=+&ad_cat=gruzovaya-tehnika&ad_brand=hidromek&...


PS: Естественно, надо чётко соблюдать порядок следования параметров в url.

Вариант с canonical кажется оптимальным. Я правильно понимаю, нужно сделать очередность параметров в ссылке, сначала важные параметры, которые индексируем и потом остальные не индексируем.

Их может следует разделить каким то символом в ссылке?

Alvion:
Так же необходимо помониторить сами домены, а то мне тут один однажды кричал, что у него в сапе только траст, все проверено каким-то сервисом. По факту проверки выяснилось, что у него на многих сайтах вообще ссылки не стоят, многие сайты под санкциями, о трасте вообще молчу.

Ссылки для отклонения Гуглом вручную собираете?

Нет, не вручную. В гугловебмастере есть список - его прошерстил и отправил список доменов гс в disavow-links. Получилось почти 400 урлов. Пока результатов нет.

Попробую по удалять, может часть получится.

anvarikum:
Если ваш анкор лист состоит из голой и не завуалированой пошлости одного анкора, то ПС поймут что вы манипулируете и склеет анкор. В сапе вы немного разбавляете его, но тоже палевно иногда надо брать анкоры туталки и доменные

Наверняка в этом и есть причина. Все верно, прошлый сеошники наплодили такого шлака с тупо тремя типами анкоров и одним доменным. Примерно 400 вечных статей таких на ГСах. Гоша спалил раньше, яша вот только. Расхлебывать мне. Вопрос, что делать?)

Платончик, как всегда:

"Мы постоянно совершенствуем поисковые алгоритмы, поэтому и выдача изменяется. Мы понимаем Вашу обеспокоенность столь заметным изменением позиций Вашего проекта, но, к сожалению, я могу лишь констатировать тот факт, что алгоритм сейчас работает корректно, никаких проблем с ранжированием Вашего сайта нет.

Спасибо за внимательное отношение к поиску и Ваше сообщение."

Alvion:
Или ссылочный профиль спалился Ваш.

Можно поподробнее, что это значит?

Имеется ввиду, что написал где то "сайт такой то продвигаю в сапе"? А сотрудник яндекса увидел и наложил санкции?

Публично никогда и нигде, да особо и не продвигаем ссылками сейчас - реальные и только тематические.

Сомневаюсь, что тексты сразу во всем каталоге и на главной виноваты. Перемспама в текстах нет.

PS Сегодня после апа еще пару вылезло. Обнадеживает...

Ау!!! SEO профессионалы остались?

Готов отблагодарить за потраченное время и дельный совет.

1ncom1ng:
Релевантные страницы с 0 полезного контента? (:

Что значит 0? ты о чем?

Если компания компания продвигает свой сайт, то должен быть и контент. Как без контента продвигать страницы?!

Следует ли закрыть от индексации раздел с пдф документацией к товарам?

Вопрос в первую очередь к бизнесу. Если в PDF документах есть контакты фирмы, телефоны, название, то наверное можно и оставить так. Если это ПДФ производителей продукции, которую кроме вас много кто продает, то лучше закрыть от индексации такие ПДФ.

Мое ИМХО. ПДФ лучше закрыть от индексации, тк это поможет Яндексу выбрать наиболее релевантные (и для вас и для пользователя) страницы сайта, те страницы, где есть ссылки, контакты и тд. ПДФ - это для печати-пересылки. И еще лучше сделать чтобы ПДФ документы открывались в новом окне, чтобы посетитель не уход с сайта нажав на ссылку.

SocPR:
А позиции так же снимаете по Москве?

Да в Москве - ключевой регион.

В других изредка проверяю - пока вообще ничего... или очень мало.

wnt:
Трешак какой-то. 28 го числа 2 запроса вернулись в топ (после веселеньких апов), в котором были доолгое время. Сегодня опять из топа улетели за 100 позиции, один со сменой релевантной.

Тоже самое 21 июня все улетело к черту, 28го несколько вернулось и сейчас снова улетело. Жесть!

Всего: 76