Не обязательно ГС, вполне может быть адекватный корпоративный сайт, но как верно заметил genjnat такое явление нередко бывает, когда 30% рабочих ссылок - это основная часть, а 70% - это образованные фильтрами страницы, состоящие из повторов информации первых 30. И тогда как раз возникают все описанные проблемы.
Я с таким с клиентской практике встречаюсь довольно часто.
Согласен с ходом мысли коллеги. Если большая часть страниц генерируется фильтрами и эти посадочные не доработаны до полноценных офферов, а трафик на них имеет тенденцию к резкому сужению, то безусловно возможны случаи со смещением релевантности и вылетом по МЦ и МВС.
Доп. ссылки, трафик (как вариант целевые накрутки на нужные страницы), в меньшей степени - целевая перелинковка из основной текста страницы помогают.
Чисто субъективно, у меня Frog работает существенно быстрее.
Старый добрый Xenu уже довольно древняя программа, которая, по-моему, не обновлялась и конечно даже и близко не подходит к функционалу Frog-а. К тому же у Xenu есть проблема, она нередко определяет неверный статус страницы.
Ответ - да, за одну итерацию поисковая система может проиндексировать сайт целиком. И теоретически, и практически (в моей практике такие случаи в разные годы неоднократно были) это, безусловно, возможно.
Первое это не обвинение, а сомнения в ваших знаниях. Можно так выразится?Во вторых не мое. В третьих, как ни странно соглашусь с Datot
Давай задам вопрос, но жду ответ, простой да или нет. У тебя же 10 лет практики, тебе просто ответить.- Можно ли зарегистрировать домен вот в этом сентябре этого года, наполнить его, и в течении где то недели проиндексировать полностью в Яндексе, получить ИКС 30, и занять ( пусть в регионе ) ТОП по Ключу в ТИТЛ главной?
Vladimir пожалуйста, давайте придерживаться выбранной темы. Её мы с вами в спорных вопросам уже обсудили.
Вы выразили свою позицию, я аргументированно и доказательство выразил свою. Полагаю, достаточно.
Если есть личные вопросы (кто кого в чём-то не понял или сомневается, приврал и т.д.) - пишите в личку, я не отказываю в общении, тем более, что я как раз вам в личку написал, но вы предпочли ответить в теме, не ответив лично. Давайте не будем отвлекаться на личные частности.
Вопросы индексации на сам деле весьма не простые и не столь однозначные, поэтому в своих ответах я и привёл важные смысловые акценты на которые необходимо обратить внимание.
Да, у меня тоже складывается такое ощущение. Недавно был неадекват с повторной индексацией уже проиндексированных страниц (заметил не только я, обсуждали в ветке по Вебмастеру). Сейчас я вижу, что в типовой задаче про исключению из индекса Яндекс не справляется в рекомендованные 2 недели.
Будем следить за событиями...
Не спешите с обвинениями, вот данный текст.
Речь не о вас :)
Похоже ты что-то путаешь, в этой ветке ничего про боты Datot не писал.
Напротив, (пропуская хамские выпады) он говорит, цитирую дословно,
--
Выпадение страниц из-за отсутствие трафа - это вообще НОНСЕНС, что МПК и прочее, что надо дать траф и они вернутся.
т.е. тезис, что нагон трафика (ботами или через другие источники) - это не является действенной мерой, а выпадение страниц из-за отсутствия трафика - это нонсенс, хотя подобные рабочие случаи разбирались на форуме многократно. Никаких ботов он не упоминал. Всё окончательно перепуталось :)
Так вот это значит, что ты солидарен с моей позиций :)
Соглаcен. У меня тоже сейчас по одному из рабочих проектов ситуация, когда Яндекс уже почти месяц маринует в индексе данные, которые более 20 дней были удалены с запретом индексацией и последовательной отправкой заявок на удаление страниц из индекса (заявки при этом успешно обработаны в тот же день).
Здесь согласен. У каждой свой опыт и опыт разный.
Но если бы жестко пресекались оскорбительные высказывания, атмосфера сообщества и адекватность обмена мнений была бы выше. Чего всем нам и желаю :)
Дим, а зачем, пользователь Vladimir гарантирует индексацию. Зачем лишние траты? Зачем вообще все эти дополнительные сервисы - индексаторы, раз внезапно возникло мнение, что поисковые системы индексируют всё, что им дают и алго тут непричем? Ты со своим опытом присоединяешься к этому мнению?
1) Затем, что вы ни разу не сталкивались с этой процедурой и я вам отвечаю на ваши же вопросы, заданные здесь.
2) Затем, что вот этот ваш тезис,
Неверен. Нет никаких положений, что поисковая система гарантированно проиндексирует любую страницу.
Кем гарантированно? Как гарантированно? Вы можете выступить гарантом для TC?
Решение принимается алгоритмом, выше ссылки на справочную информацию я вам уже давал.
Смотрите. Разговор действительно зашёл о разном, потому что.
Если у TC страницы вылетают из индекса как малополезные и маловостребованные, то ускорение добавления страниц в индекс вопрос не решит.
Как ускорить процесс заявок и как автоматизировать процесс - это не проблема (хотя TC в заголовке об этом спрашивает), но реальная проблема есть и будет в том, что в индексе страницы в необходимым объёме удерживаться не будут.
Именно ввиду этого вопроса
я и начал свои разъяснения, потому что вопрос комплексный и далеко не исчерпывается советом добавить XML карту сайта.
p.s. Если вы с предубеждением критически настроены к информации, которую даю я, обратитесь к сторонним источникам, например, здесь и во многих других авторитетных источниках вы встретите мнение, что однозначно гарантировать индексацию невозможно. Можно лишь способствовать.