Lev

Рейтинг
218
Регистрация
26.04.2006
YaanGle:
А на основе чего эта актуальность определяется?

Присоединяюсь к вопросу. Если актуальность - это не то, что релевантность (которая, собственно, должна быть у поисковой машины на выходе) и не свежесть контента, то что? и как определяется?

---------- Добавлено 23.09.2013 в 17:33 ----------

laotzi:
так вы о новых страницах, а ТС о старых, в которые изменения хочет вносить

Да, я именно о старых, "посадочных" страницах

87793:
Не заметил.
У меня вот это вот расписание и соответствующий ему архив мероприятий обновляются... ну, в общем, редкий день проходит без обновления, а в иные дни и по нескольку раз.
Но при этом большая часть трафика на этот сайт идёт не на расписание мероприятий, а на статьи. Которые раз размещены (давно) и не обновляются.

А статьи у вас на какую тему? Если это коммерческие статьи на востребованные, высокочастотные темы, то понятно, что с них при любом раскладе будет идти больше трафика, чем с мероприятий типа семинара на тему: "О корреляционных функциях и вейлевской аномалии конформных полей высших спинов". :) Это же никто не ищет

Marti7856:
Это дубли, чем чревато вы уже сами видите. Сделайте 301-й редирект со всех дублей на основную страницу.

А как это сделать? Сайт статический, на html

Уважаемый Harius, скажите, пожалуйста, а есть ли у Xtool'а такой вариант, чтобы закачать в него сразу все бэки из ЯВМ или ГВМ и найти плохие? Я пользуюсь онлайн-сервисом, но там ограниченное число определений, да и не годится он для массовой проверки. Нужно, чтобы был не плагин и не надстройка к Sape, а именно программа (онлайновая или оффлайновая - неважно), работающая со списком. И если есть, сколько стоит?

Думаю, это не только мне будет интересно, поэтому спрашиваю на форуме, а не в личном сообщении.

Чудеса и только!

Спасибо за ответы.

victim:
Из 1500 ссылок отправил в отклонение 1200 доменов.

Как ни странно, у меня по обоим сайтам в точности такое же соотношение: 80% в отклонение. И на форуме другие писали, что тоже около 20% ссылок нормальных, а 80% плохих.

Мне тут сказали, что если ручных фильтров нет, то нет смысла плохие ссылки отправлять в Disavow, т.к. автоматические фильтры так не снять. Это правда?

Всем вопрос: если в ГВМ нет никаких пометок о ручных мерах борьбы со спамом, но есть автоматические санкции, то есть ли смысл загонять плохие бэки в Disavow Links? Ну, типа, пусть автоматические санкции автоматически же и снимутся... Я два сайта так почистил, причем отправил 80% ссылочной массы на дезавуирование (в Disavow), а мне сказали, что если ручных санкций нет, то не надо было пользоваться Disavow

victim:
Ну в таком случае ты не сможешь отправить сайт на пересмотр, т.к. ручных санкций не было. А автоматические пересмотру не подлежат. Но ты можешь обратиться в форум для вебмастеров https://productforums.google.com/forum/#!categories/webmaster-ru/%D1%81%D0%BA%D0%B0%D0%BD%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D0%B8-%D1%80%D0%B0%D0%BD%D0%B6%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-%D1%81%D0%B0%D0%B9%D1%82%D0%BE%D0%B2 там сайт препарируют как надо :)

Гм... 😒 "Автоматические пересмотру не подлежат" - а если они наложены за плохую ссылочную массу, а я плохие ссылки отправил в Disavow Links, то может быть, автоматические санкции через какое-то время автоматически же и снимутся?

Или я, о ужас, вообще зря эту возню затеял с Disavow Links?? 😮

PS. В любом случае, спасибо за совет насчет форума вебмастеров

Lev:
А, всё, нашел ответ в Гугол-вебмастере:

If you want Google to ignore all links from an entire domain (like example.com), add the line "domain:example.com".

Так что теперь надо вместо 'http://' везде поставить 'domain:'
(просто автозаменой).

И заново послать!

В общем, я так и сделал, и теперь Disavow Links Tool выдал правильное сообщение о результате: "Доменов: 2455, URL: 0"

Всего: 1733