Чисто субъективно, у меня Frog работает существенно быстрее.
Старый добрый Xenu уже довольно древняя программа, которая, по-моему, не обновлялась и конечно даже и близко не подходит к функционалу Frog-а. К тому же у Xenu есть проблема, она нередко определяет неверный статус страницы.
Ответ - да, за одну итерацию поисковая система может проиндексировать сайт целиком. И теоретически, и практически (в моей практике такие случаи в разные годы неоднократно были) это, безусловно, возможно.
Первое это не обвинение, а сомнения в ваших знаниях. Можно так выразится?Во вторых не мое. В третьих, как ни странно соглашусь с Datot
Давай задам вопрос, но жду ответ, простой да или нет. У тебя же 10 лет практики, тебе просто ответить.- Можно ли зарегистрировать домен вот в этом сентябре этого года, наполнить его, и в течении где то недели проиндексировать полностью в Яндексе, получить ИКС 30, и занять ( пусть в регионе ) ТОП по Ключу в ТИТЛ главной?
Vladimir пожалуйста, давайте придерживаться выбранной темы. Её мы с вами в спорных вопросам уже обсудили.
Вы выразили свою позицию, я аргументированно и доказательство выразил свою. Полагаю, достаточно.
Если есть личные вопросы (кто кого в чём-то не понял или сомневается, приврал и т.д.) - пишите в личку, я не отказываю в общении, тем более, что я как раз вам в личку написал, но вы предпочли ответить в теме, не ответив лично. Давайте не будем отвлекаться на личные частности.
Вопросы индексации на сам деле весьма не простые и не столь однозначные, поэтому в своих ответах я и привёл важные смысловые акценты на которые необходимо обратить внимание.
Да, у меня тоже складывается такое ощущение. Недавно был неадекват с повторной индексацией уже проиндексированных страниц (заметил не только я, обсуждали в ветке по Вебмастеру). Сейчас я вижу, что в типовой задаче про исключению из индекса Яндекс не справляется в рекомендованные 2 недели.
Будем следить за событиями...
Не спешите с обвинениями, вот данный текст.
Речь не о вас :)
Похоже ты что-то путаешь, в этой ветке ничего про боты Datot не писал.
Напротив, (пропуская хамские выпады) он говорит, цитирую дословно,
--
Выпадение страниц из-за отсутствие трафа - это вообще НОНСЕНС, что МПК и прочее, что надо дать траф и они вернутся.
т.е. тезис, что нагон трафика (ботами или через другие источники) - это не является действенной мерой, а выпадение страниц из-за отсутствия трафика - это нонсенс, хотя подобные рабочие случаи разбирались на форуме многократно. Никаких ботов он не упоминал. Всё окончательно перепуталось :)
Так вот это значит, что ты солидарен с моей позиций :)
Соглаcен. У меня тоже сейчас по одному из рабочих проектов ситуация, когда Яндекс уже почти месяц маринует в индексе данные, которые более 20 дней были удалены с запретом индексацией и последовательной отправкой заявок на удаление страниц из индекса (заявки при этом успешно обработаны в тот же день).
Здесь согласен. У каждой свой опыт и опыт разный.
Но если бы жестко пресекались оскорбительные высказывания, атмосфера сообщества и адекватность обмена мнений была бы выше. Чего всем нам и желаю :)
Дим, а зачем, пользователь Vladimir гарантирует индексацию. Зачем лишние траты? Зачем вообще все эти дополнительные сервисы - индексаторы, раз внезапно возникло мнение, что поисковые системы индексируют всё, что им дают и алго тут непричем? Ты со своим опытом присоединяешься к этому мнению?
1) Затем, что вы ни разу не сталкивались с этой процедурой и я вам отвечаю на ваши же вопросы, заданные здесь.
2) Затем, что вот этот ваш тезис,
Неверен. Нет никаких положений, что поисковая система гарантированно проиндексирует любую страницу.
Кем гарантированно? Как гарантированно? Вы можете выступить гарантом для TC?
Решение принимается алгоритмом, выше ссылки на справочную информацию я вам уже давал.
Смотрите. Разговор действительно зашёл о разном, потому что.
Если у TC страницы вылетают из индекса как малополезные и маловостребованные, то ускорение добавления страниц в индекс вопрос не решит.
Как ускорить процесс заявок и как автоматизировать процесс - это не проблема (хотя TC в заголовке об этом спрашивает), но реальная проблема есть и будет в том, что в индексе страницы в необходимым объёме удерживаться не будут.
Именно ввиду этого вопроса
я и начал свои разъяснения, потому что вопрос комплексный и далеко не исчерпывается советом добавить XML карту сайта.
p.s. Если вы с предубеждением критически настроены к информации, которую даю я, обратитесь к сторонним источникам, например, здесь и во многих других авторитетных источниках вы встретите мнение, что однозначно гарантировать индексацию невозможно. Можно лишь способствовать.
Ответить могут на ваш вопрос. В ряде случаев это очень помогает. Что касается вопросов индексации помогают практически всегда.
Нет, это вполне нормальная рабочая процедура.
Если вы интересуетесь этой темой и смотрели Вебмастерские, сотрудники Яндекса неоднократно повторяли мысль, что если есть какая-то проблема по сайту или что-то непонятно, то они рекомендуют обращаться к поддержке.
Другое дело, что не всегда ситуация решается так как вы хотите, но для того, чтобы разобраться, вполне действенная мера.
Это я уже понял, что в этом вопросе у вас не было опыта. Но всё же абсолютно серьёзно, вопреки сложившемуся негативному мнению - это весьма полезно.
Если вам реально интересна и важна эта тема, напишите мне личку, я лично познакомлю вас с конкретной рабочей ситуацией по текущему рабочему сайту, которую решал буквально вчера,
и это как раз тот случай, когда рабочую ситуацию надо решать через тех. поддержку Яндекса.
Только пишите, если вы серьёзно хотите разобраться в этом вопросе, а не просто для развлечения поспорить.
Именно так и происходит, когда отвечающий менеджер не может разъяснить ситуацию и привлекает к ответу специалиста (выше как раз соответствующий пример).
Многократно в моей многолетней практике были случаи, когда я получал ответ (не дословно, но примерно):
---
Спасибо за обращение, мы учтём необходимые изменения рабочих данных и в последующем используем в наших алгоритмах..
Примерно через месяц ситуация позитивно решалась и таким образом мне удавалось разрешить ту проблему, которая не решалась стандартными средствами.
И да, для более ясного понимания рабочих процессов индексации очень рекомендую ознакомиться с материалами: здесь и здесь.
Надеюсь, однозначно разберетесь с вопросом, что решение об индексации принимает именно алгоритм.
Так, добавьте в Гугл Консоль.
Если уже добавлено, но индексации нет и хочется быстрее - добавьте XML карту сайта, можно временно прикупить пару морд на ссылочной бирже - процесс пойдет быстрее.
Для Гугла в принципе нужна хорошая прокачка ссылочным. Я бы с эти не тянул, если для вас критично время.