doutaxe

Рейтинг
38
Регистрация
09.10.2015
HorrorDrug:
Как ускорить индексацию ссылок гуглом?

/ru/forum/comment/14621322

Filtrator:
можете хотя бы формально описать выстрелившие посты? количество знаков текста, количество картинок и т.д.

Судя по мануалу для RSS https://yandex.ru/support/zen/publishers/rss.html статья должна содержать минимум 300 знаков и минимум 1 картинку. В редакторе на создание таких ограничений нет, но как бы для RSS они видимо не спроста..

Но если у вас названия товаров уникальные, то все title будут уникальные даже при одном шаблоне - разве нет?

Можно, но

1) навигационные цепочки для такого URL-а на выдаче Вы не получите

2) индексироваться и, предположительно, ранжироваться они будут похуже, чем, к примеру, example.com/catalog/animals/sobaka/10/

3) из-за возможного разного порядка фильтров в URLе ( по адресам example.com/catalog/animals/?tip=sobaka&ves=10 и example.com/catalog/animals/?ves=10&tip=sobaka ваша CMS скорее всего выдаст одно и тоже) и сложности настройки для таких URL-ов noindex или rel=canonical - вариант без GET-параметров предпочтительнее

Есть метод для Google - /ru/forum/comment/14621322 - работает, с Яндексом не тестировал, но возможно тоже поможет

-= Serafim =-:
Возьмите 2 сайта одной тематики и с примерно похожим ядром и попробуйте продвигать один без ссылок, а второй с ними. И увидите какие 10%.

Да, для Яндекса в такой ситуации и выходит 10%. Для Google, я бы сказал, 50% успеха)

Отвечу сам себе: передался возраст спустя 203 дня (именно столько страница отдавала 404 и уже давно была выкинута из индекса).

Проверяю дальше, в процессе передача спустя год)

random_object:
Всем привет. Все ругают сервисы SAPE Wizzard, ********, Reg.ruSeo по автоматическому продвижению seo, но никто не говорит почему. У меня нет статистики, но наверняка есть те кого миновала учесть попасть под фильтр и они кайфуют в топе. Собственно один вопрос, это работает?

Дело не в фильтре, а в специфике этого "продвижения". Все они основаны на закупке ссылок, что составляет примерно 10% от успеха при продвижении (факторов в Яндексе на данный момент около 1500). Те простейшие рекомендации, которые они дают попутно с закупкой ссылок - еще дай бог 10% от необходимой оптимизации. Итого сделано максимум 20% по продвижению сайта. А если еще учитывать то, что "автоматически продвигая" вы не проверили корректность индексации, основные теги продвигаемых страниц, корретность разбивки - все эти усилия в пустую.

CodeStyle:
Правильнее будет так

User-agent: *
Disallow: /page/disallow-page

Еще правильнее будет так:


User-agent: *
Disallow: /page/disallow-page$

т.к. автора интересует конкретная страница в разделе (может внутри нее еще есть позразделы).

В любом случае - тут все описано https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html#asterisk-dollar

alaev, Вы в блоге написали, что у одного пациента снялся фильтр. Можете сказать, помогает ли при хостовом Бадене <noindex>? Или сносом текстов сняли? А то что Платоны, что Елена Першина в комментариях - дают какие-то пространные ответы по этому поводу.

Всего: 68