Соглашусь с Володей, ещё посоветую пересмотреть контентное наполнение страниц по части структурного содержания: здесь рекомендую детально проанализировать конкурентов и собрать полезные идеи как ещё можно структурно насытить страницу в пределах выбранного интента.
Далее - всё верно, добавляйте внешние ссылки, трафик, прямые переходы, есть можете/умете (точечные целевые накрутки) с поиска именно на проблемные страницы (само собой, когда они будут/восстановятся в индексе и будут ранжироваться).
Да, форумOK, буксы, различные сервисы по исполнению заданий. В поиске найти не проблема.
Основная сложность организовать комплексную работу в этом направлении и поддерживать процесс.
Не обязательно ГС, вполне может быть адекватный корпоративный сайт, но как верно заметил genjnat такое явление нередко бывает, когда 30% рабочих ссылок - это основная часть, а 70% - это образованные фильтрами страницы, состоящие из повторов информации первых 30. И тогда как раз возникают все описанные проблемы.
Я с таким с клиентской практике встречаюсь довольно часто.
Согласен с ходом мысли коллеги. Если большая часть страниц генерируется фильтрами и эти посадочные не доработаны до полноценных офферов, а трафик на них имеет тенденцию к резкому сужению, то безусловно возможны случаи со смещением релевантности и вылетом по МЦ и МВС.
Доп. ссылки, трафик (как вариант целевые накрутки на нужные страницы), в меньшей степени - целевая перелинковка из основной текста страницы помогают.
Чисто субъективно, у меня Frog работает существенно быстрее.
Старый добрый Xenu уже довольно древняя программа, которая, по-моему, не обновлялась и конечно даже и близко не подходит к функционалу Frog-а. К тому же у Xenu есть проблема, она нередко определяет неверный статус страницы.
Ответ - да, за одну итерацию поисковая система может проиндексировать сайт целиком. И теоретически, и практически (в моей практике такие случаи в разные годы неоднократно были) это, безусловно, возможно.
Первое это не обвинение, а сомнения в ваших знаниях. Можно так выразится?Во вторых не мое. В третьих, как ни странно соглашусь с Datot
Давай задам вопрос, но жду ответ, простой да или нет. У тебя же 10 лет практики, тебе просто ответить.- Можно ли зарегистрировать домен вот в этом сентябре этого года, наполнить его, и в течении где то недели проиндексировать полностью в Яндексе, получить ИКС 30, и занять ( пусть в регионе ) ТОП по Ключу в ТИТЛ главной?
Vladimir пожалуйста, давайте придерживаться выбранной темы. Её мы с вами в спорных вопросам уже обсудили.
Вы выразили свою позицию, я аргументированно и доказательство выразил свою. Полагаю, достаточно.
Если есть личные вопросы (кто кого в чём-то не понял или сомневается, приврал и т.д.) - пишите в личку, я не отказываю в общении, тем более, что я как раз вам в личку написал, но вы предпочли ответить в теме, не ответив лично. Давайте не будем отвлекаться на личные частности.
Вопросы индексации на сам деле весьма не простые и не столь однозначные, поэтому в своих ответах я и привёл важные смысловые акценты на которые необходимо обратить внимание.
Да, у меня тоже складывается такое ощущение. Недавно был неадекват с повторной индексацией уже проиндексированных страниц (заметил не только я, обсуждали в ветке по Вебмастеру). Сейчас я вижу, что в типовой задаче про исключению из индекса Яндекс не справляется в рекомендованные 2 недели.
Будем следить за событиями...
Не спешите с обвинениями, вот данный текст.
Речь не о вас :)
Похоже ты что-то путаешь, в этой ветке ничего про боты Datot не писал.
Напротив, (пропуская хамские выпады) он говорит, цитирую дословно,
--
Выпадение страниц из-за отсутствие трафа - это вообще НОНСЕНС, что МПК и прочее, что надо дать траф и они вернутся.
т.е. тезис, что нагон трафика (ботами или через другие источники) - это не является действенной мерой, а выпадение страниц из-за отсутствия трафика - это нонсенс, хотя подобные рабочие случаи разбирались на форуме многократно. Никаких ботов он не упоминал. Всё окончательно перепуталось :)
Так вот это значит, что ты солидарен с моей позиций :)
Соглаcен. У меня тоже сейчас по одному из рабочих проектов ситуация, когда Яндекс уже почти месяц маринует в индексе данные, которые более 20 дней были удалены с запретом индексацией и последовательной отправкой заявок на удаление страниц из индекса (заявки при этом успешно обработаны в тот же день).
Здесь согласен. У каждой свой опыт и опыт разный.
Но если бы жестко пресекались оскорбительные высказывания, атмосфера сообщества и адекватность обмена мнений была бы выше. Чего всем нам и желаю :)
Дим, а зачем, пользователь Vladimir гарантирует индексацию. Зачем лишние траты? Зачем вообще все эти дополнительные сервисы - индексаторы, раз внезапно возникло мнение, что поисковые системы индексируют всё, что им дают и алго тут непричем? Ты со своим опытом присоединяешься к этому мнению?