И в том, сколько позиций видно на странице без использования прокрутки..
Я сам считаю такую постановку вопроса не совсем корректной, однако слышал ее именно в таком исполнении. Возможно речь идет о быстром росте статичного веса, хотя это уже опять бэки... Или все-таки робот может отслеживать рост динамичного веса, хотя бы по определенным тематикам.
Так что, новым сайтам дается преимущество?
Упс, значит мне кто-то прогнал про песок от слишком быстрого роста позиций. Что касается порочащих связей, насколько я понимаю речь идет об отрицательном весе некоторых ссылок. Это другой фильтр. Садовский, кстати, заявлял, что в Я тоже есть этот алгоритм, хотя его не очень заметно было.
Но вопрос все же актуален, есть ли у кого-то факты или хотя бы ИМХО, что сайт может попасть в песок из-за:
1. Слишком быстрого роста позиций
2. Слишком быстрого роста бэков
Я слышал в отношении Гугла такое понятие как «песок». То есть сайт попадает под писсимизацию то ли за слишком большой рост ихнего вИЦ, то ли за слишком большой рост бэков одновременно. Поэтому тоже думал, что в Гугле дольше... Вопрос: песок в Гугле есть? И за что туда сажают?
SEO превратится в серьезную область электронного маркетинга не привязанного к конкретному поисковику. Цены поднимутся до уровня маркетинговых контор 50-150 тыс. дол. за компанию.
Если не секрет, по каким факторам вы оцениваете срок вывода сайта в Гугле, или киньте ссылочку где почитать.
Тенденция однако, я тоже работаю с Яндексом, а сижу в темах про Гугл, чтобы понять куда все идет.
И так почти каждый день.
Это шутка "на второй день"? Яндекс должен их проиндексировать, то есть прочитать, а потом должен быть апдейт позиций. Именно в таком порядке... да. Это 1-2-3 недели.
Тематичность статьи будет иметь значение для передачи тИЦ. Для продвижение по поисковым запросам как ни странно наоборот (ИМХО). Ставил эксперимент, из четырех наборов одинаковых по всем параметрам ссылок с одних и тех же сайтов, наибольшую пользу принесли те, что шли со страниц с абсолютно непохожей тематики. Объяснить это не берусь.