Тоже наблюдал подобное, кстати получается не очень логично, в плане отношения алгоритмов. Допустим я знаю, что есть такие товарищи, которые тырят контент с сайтов еще не попавших в индекс, и жду пока он проиндексится, поэтому и не добавляю ничего нового и тут приходит бан. И как спрашивается быть в такой ситуации?
Если форум мертвый, то не поможет вылетит за милую душу, лично у меня такое было.
Опросники тоже бывают разные... И вот меня тоже мучает вопрос, как яндекс вообще может проанализировать какие то сервисы? Если с контентом хотя бы интуитивно понятно, что реально, то насчет сервисов вообще полная неясность, а может и не там собака зарыта? Мож гуру чего- нить дельное намекнут? :)
Кстати насчет чем больше, тем лучше, тоже не факт, имхо. Думаю основную роль играет совокупность всех факторов, которая определяет тот якобы "траст" или "СДЛьность". Тут уж кто как назовет. Такой вывод я сделал для себя, потому что видел как вылетающие сайты с кучей сервисов, так и стоящие как вкопанные в топах сайты без них, насчитывающие всего 30 страниц.
Остается только поддержать! Я думаю если всю статью превратить в ссылки на другие страницы, то такое извращение тоже даст о себе знать, хотя я лично не экспериментировал :)
А вообще, я всегда не понимал на кой это облако тэгов, кто-нибудь может растолковать поподробнее или отправить к мануалу? Т.е. я хочу понять, какое удобство для они несут пользователю? Вот я как пользователь даж не вспомню когда ими пользовался... По мне грамотно поставленная ссылка куда удобнее.
Могу показать Вам пару примеров, где никаких изменений не происходит уже лет так ...дцать 🚬 И ничего, висят себе в топе и яндекс их вполне любит :) Так что это совсем не показатель имхо...
По вопросу ТС:
Мое имхо, развивать сайт - это не просто наполнять его уником, а приделывать сервисы, линковать между собой страницы(то же чтоб людям было удобно, например есть у вас на сайте глоссарий и статьи, в теле статьи ссылка на термин из глоссария - хороший тон). Вот в таком духе, т.е. чтобы сайт был не немым набором страниц, пусть даже и уникальных, а удобным пользователю.
(c) National Geographic 😂
По теме - сегодня ночью индексирующий бот так же не замечен(на новых сайтах). Поэтому имхо нормального апа ждать сегодня-завтра не стоит.
Извините, я поправил свой пост, до того как Вы написали. Как раз таки утверждение там исправлено на вопрос ;)
Т.е. вопрос вроде бы дурацкий с первого взгляда :)))
Но я вот к чему спросил, если на новый сайт(без ссылок) ссылается новый(предположим такой же по качеству) сайт с одной ссылкой, то как это будт по вашей модели мира? Просто непонятно, что такое очень хороший донор и очень плохой. Ведь новый сайт тоже может быть очень хорошим. Но скорее всего Вы ответите, что очень хороший для Яндекса :) А какие там сайты плохие, какие хорошие, только он сам знает :)
Сергей, а если сайт новый и только попал в индекс, то, выражаясь терминами Вашего поста, какой он реципиент - "очень хороший", "хороший", "никакой"? Чем это определяется, если ссылок на него никаких нет, другими параметрами, вроде возраста, уникального контента и пр.? И в продолжение второй вопрос - неужели максимальную пользу для нового сайта могут принести только ссылки с таких же новых сайтов? Прошу прощения, если ответ уже где-то прозвучал, все не прочел.
Спасибо за совет, но все таки хочется понять, почему просто через addurl не хочет индексировать? Такое ощущение, что ведутся работы и робота попридержали, попробую подождать.
Магия конкурентов может? ☝
По теме: молодые сайты вообще в индекс не спешат, не то что в топ, Платоны ответили - ждите 2 недели, затем после двух недель ожидания, на следующее письмо - ждите еще несколько дней. С момента добавления в адурелку робот вообще ниразу не зашел...
Поисковые запросы в выпадающем списке - удобно, а это бредятина какая-то. Напоминает идею нерадивого разработчика сервисов, от которого потребовали новую фишку, а он не смог ничего придумать и прикрутил калькулятор 😂