А мне кажется что "установлен" такой флаг: по запросу "такому-то" выводить сайты которые известны гуглу "3 мес/6 мес/год" и т.д. А поскольку все на разные запросы ориентируются, то и появляются сообщения типа, "меня выпустили через три месяца - вот повезло", а на самом деле, срок просто зависил от запроса. Сумбурно написал, но думаю смысл понятен.
По моим наблюдениям, на сроки выхода из песка влияет:
1. Авторитетность (не ПР, а trust) ссылающихся страниц. Ссылка со страницы .edu даже с нулевым ПР, может очень помочь. Есть опыт.
2. Комерческая привлекательность запроса. Не путать с высокочастотностью запроса. Т.е. один и тот же домен может быть в песке по одим запросам и отлично находиться по другим.
А насчет бана за прирост ссылок: сто раз уже говорилось что за внешние факторы не банят! Регистрируйтесь в каталогах, как можно больше..... это совершенно нормально!
Сайты английские, зона com. Для чего Гугл это делает - неизвестно, но факт - остается фактом.
Сильные "естественные" шестерки.
Ага, недосмотрел :) Сорри, бывает
Вот еще одна
/ru/forum/67053
Теперь будем отслеживать периодичность "выбросов данных"....... появится календарь "выбросов данных", в SEO-тулбаре будет написано "до выброса осталось столько-то дней", на форуме будут раз в день появляться темы "А не было ли вчера выброса данных?"
Сорри - не сдержался :)
Могу предложить схему для 101 сайта. Нарисуйте 101-угольник (воображаемый). Таким образом каждая вершина будет иметь четное количество лучей (соединяющих ее со 100 остальными вершинами), ставьте исходящую ссылку, через один луч. Таким образом Вы получите на каждый сайт (вершину) 50 ссылок и для каждого сайта они не будут взаимными. Но я бы лучше сделал четыре 25-угольника для 100 сайтов :) Гдето даже видел сервис, который генерирует блоки ссылок для такой схемы.
Надо же, и я искал такие услуги недавно. Налицо существенное превышение спроса над предложением. :)
Просто их на несколько порядков больше......... всех не зафильтруешь!