Так-то оно так. Но для этого надо, чтобы на каждой странице такого сайта была только одна внутренняя ссылка на следующую страницу. А на правильном сайте так не бывает. На правильном сайте все страницы перелинкованы между собой через навигацию и иерархию и как бы уравновешивают друг друга, добавляя немножко ПР главной странице, на которую есть ссылка со всех страниц.
Хотя поэкспериментировать, конечно, можно. Могу даже предложить способ. Взять какую-нибудь книгу и сварганить сайт, посвященный этой книге. Разбить текст на сто страниц. И на каждой проставить только две ссылки - на следующую страницу и на первую (она же главная).
Но поскольку ссылок на каждой странице 2, ПР по цепочке будет постепенно угасать. Так что действительно, вечного двигателя не
получится.
А зачем так много?
Сайт, который сам по себе не выбирается в топ выдачи, модеры поисковика смотреть не будут, и стучать на него никто не станет. Следовательно, и банить его никому в голову не придет.
В сети миллионы сайтов из одной-трех страниц, типа визиток фирм и домашних страничек на тему "Какой хороший я и песенка моя". Это как раз сайты, на которые никто не обращает внимания, а ПР с них такой же, как и с любых других (если он там, конечно, есть).
Конечно, все вышесказанное относится к ситуации, когда все затевается ради ПР на результирующем сайте. Если нужен ПР на каждом из сайтов сам по себе (например, для продажи ссылок) - тут дело другое и по доменам, и по контенту и по дизайну.
Как это вычислить, я себе представляю. Но вот как это можно забанить, не нарушая собственных принципов Яндекса, представляю с трудом.
Ссылка, которая ведет на страницу - это внешний фактор. За него не банят. А одинокая ссылка, которая ведет со страницы на сайт схожей тематики, никаким боком не подпадает под понятие "поисковый спам". То есть банить тоже не за что.
Я тут с прицелом на похожую идею задавал вопрос про ПР с бесплатных хостингов, и получил ответ, что Гуглю по барабану, в каком домене лежит страница.
В связи с этим можно провести дополнительный эксперимент. Запустить аналогичную цепь на бесплатном хостинге и сравнить с тем, что получится на org.ru и на доменах 2-го уровня.
Однако таким способом можно получить для каждого не больше чем вес стартовой покупной ссылки.
Если на сайте А будет ПР5 и одна ссылка, то сайт Б получит те же 5, и так далее по цепочке (и то лишь по идее, а на практике скорее всего неизбежны какие-то накладные потери). И в конце цепочки сайт Я получит максимум те же 5.
А более высокий ПР может получить лишь некий результирующий сайт, на который одновременно сошлются все сто. Опять же теоретически максимальное превышение ПР будет +2 (десятичный логарифм от 100).
А вот если строить их пирамидами, то теоретически можно добраться до любых высот. Например, десять сайтов ссылаются по цепочке один на другой и все вместе на одиннадцатый.
Одиннадцатые сайты десяти таких колец образуют свое кольцо и все вместе ссылаются на сто двадцать второй сайт. А дальше насколько хватит терпения, настолько будет высок ПР на последнем результирующем сайте.
Но если на нее поставить несколько ссылок (хоть с тех же форумов и гостевых), то реальный ПР будет уже не 0.
Логарифмический, конечно, может показываться, как ноль, но в соответствии с той же теорией десять ссылок с таких страничек (при условии, что на каждой только одна ссылка) должны уже давать 1, сто ссылок - 2, тысяча - 3 и так далее.
спасибо. я, в общем, так и думал.
однако ходят разговоры про фильтры гугла на народ.ру, о непривлекательности ссылок с доменов третьего уровня по сравнению со вторым и тому подобное...
у них вообще нет описания. а одинаковая у них навигация и опрос, который гугль почему-то выдает за дексрипшен.
спасибо, я уже разобрался. хотя все равно непонятно, почему он по умолчанию показывает ссылки без снипетов и ссылок на кеш, а со всем этим - только по "повторить поиск, включив опущенные результаты".
и у меня все равно получилось не 41, а "приблизительно 20".
Ну, теоретически можно читать результирующую страницу поиска через file_get_contents и уже у себя в скрипте корежить ее, как душе угодно. Но не знаю, как отнесется к этому Гугл.
спасибо. этой темы не видел. была похожая в разделе яндекс, но там все больше применительно конкретно к яндексу.
а что это за фильтр, который =0?