espada

Рейтинг
172
Регистрация
05.10.2005
Алексей Пешков:
Зачем тратиться на 100 сайтов? Для экспериментов над PR достаточно 100 страниц на одном. :)

Так-то оно так. Но для этого надо, чтобы на каждой странице такого сайта была только одна внутренняя ссылка на следующую страницу. А на правильном сайте так не бывает. На правильном сайте все страницы перелинкованы между собой через навигацию и иерархию и как бы уравновешивают друг друга, добавляя немножко ПР главной странице, на которую есть ссылка со всех страниц.

Хотя поэкспериментировать, конечно, можно. Могу даже предложить способ. Взять какую-нибудь книгу и сварганить сайт, посвященный этой книге. Разбить текст на сто страниц. И на каждой проставить только две ссылки - на следующую страницу и на первую (она же главная).

Но поскольку ссылок на каждой странице 2, ПР по цепочке будет постепенно угасать. Так что действительно, вечного двигателя не

получится.

'[/root.:
']
- Как в среднем должен выглядеть сайт? На мой взгляд 15 страничек текста + карта сайта + графики минимум.

А зачем так много?

Сайт, который сам по себе не выбирается в топ выдачи, модеры поисковика смотреть не будут, и стучать на него никто не станет. Следовательно, и банить его никому в голову не придет.

В сети миллионы сайтов из одной-трех страниц, типа визиток фирм и домашних страничек на тему "Какой хороший я и песенка моя". Это как раз сайты, на которые никто не обращает внимания, а ПР с них такой же, как и с любых других (если он там, конечно, есть).

Конечно, все вышесказанное относится к ситуации, когда все затевается ради ПР на результирующем сайте. Если нужен ПР на каждом из сайтов сам по себе (например, для продажи ссылок) - тут дело другое и по доменам, и по контенту и по дизайну.

HUMMER:
банят и даже очень
на последней конференции садовский рассказывал что такие вещи яндекс научился вычислять и банят их быстрее чем они создаются
был даже показательный пример бана сетки из почти 1000 доменов

Как это вычислить, я себе представляю. Но вот как это можно забанить, не нарушая собственных принципов Яндекса, представляю с трудом.

Ссылка, которая ведет на страницу - это внешний фактор. За него не банят. А одинокая ссылка, которая ведет со страницы на сайт схожей тематики, никаким боком не подпадает под понятие "поисковый спам". То есть банить тоже не за что.

basterr:
бесплатные в зоне org.ru, на платные денег не было, да и что-то на эксперимент мне и не хотелось тратиться.

Я тут с прицелом на похожую идею задавал вопрос про ПР с бесплатных хостингов, и получил ответ, что Гуглю по барабану, в каком домене лежит страница.

В связи с этим можно провести дополнительный эксперимент. Запустить аналогичную цепь на бесплатном хостинге и сравнить с тем, что получится на org.ru и на доменах 2-го уровня.

Однако таким способом можно получить для каждого не больше чем вес стартовой покупной ссылки.

Если на сайте А будет ПР5 и одна ссылка, то сайт Б получит те же 5, и так далее по цепочке (и то лишь по идее, а на практике скорее всего неизбежны какие-то накладные потери). И в конце цепочки сайт Я получит максимум те же 5.

А более высокий ПР может получить лишь некий результирующий сайт, на который одновременно сошлются все сто. Опять же теоретически максимальное превышение ПР будет +2 (десятичный логарифм от 100).

А вот если строить их пирамидами, то теоретически можно добраться до любых высот. Например, десять сайтов ссылаются по цепочке один на другой и все вместе на одиннадцатый.

Одиннадцатые сайты десяти таких колец образуют свое кольцо и все вместе ссылаются на сто двадцать второй сайт. А дальше насколько хватит терпения, настолько будет высок ПР на последнем результирующем сайте.

uraltek:
К тому как увеличить PR, хотя не понятно, у странички сделанной на геосити пр естессснноо будет 0

Но если на нее поставить несколько ссылок (хоть с тех же форумов и гостевых), то реальный ПР будет уже не 0.

Логарифмический, конечно, может показываться, как ноль, но в соответствии с той же теорией десять ссылок с таких страничек (при условии, что на каждой только одна ссылка) должны уже давать 1, сто ссылок - 2, тысяча - 3 и так далее.

спасибо. я, в общем, так и думал.

однако ходят разговоры про фильтры гугла на народ.ру, о непривлекательности ссылок с доменов третьего уровня по сравнению со вторым и тому подобное...

у них вообще нет описания. а одинаковая у них навигация и опрос, который гугль почему-то выдает за дексрипшен.

спасибо, я уже разобрался. хотя все равно непонятно, почему он по умолчанию показывает ссылки без снипетов и ссылок на кеш, а со всем этим - только по "повторить поиск, включив опущенные результаты".

и у меня все равно получилось не 41, а "приблизительно 20".

Ну, теоретически можно читать результирующую страницу поиска через file_get_contents и уже у себя в скрипте корежить ее, как душе угодно. Но не знаю, как отнесется к этому Гугл.

спасибо. этой темы не видел. была похожая в разделе яндекс, но там все больше применительно конкретно к яндексу.

а что это за фильтр, который =0?

Всего: 737