Может вот это поможет понять? :)
Посещаемость иностранного сайта
майл.ру вообще отстой - ввели цензуру, воюют с конкурирующими рассыльниками некорректными методами, засижены спамерами, фильтры включены по максимуму. Не заводите там мыл и вообще их бойкотируйте - они нарушают глобальное правило интернета о свободном обмене информацией - не дают ставить в рассылках ссылки на smartresponder и subscribe. Мало того - перед отправкой рассылки их паук шмонает сайты, на которые ведут ссылки и даже там (!!!) ищут субскрайбовские формы!!!
PS
Сорри за оффтопик - наболело. :(
Цитириую Leslie Rohde, программера с 30-ти летним стажем, "гиком", каковым он себя считает, и разработчиком OptiLink:
"Высокий рейтинг в Гугл почти полностью основан на 2-х факторах: Репутации Линка (Link Reputation) и PR".
(Из вступления к его книге Dynamic Linking)
Так вот "Репутация Линка" - это оно и есть.
Господа Rohde и Campbell не один лимон баксов сделали на открытии этой истины, в то время как другие парились над плотностью, метатегами и link popularity ;)
Но вот сейчас, кажется, это дает сбой (не во всех нишах, правда).
До "флоридского урагана" это не подлежало сомнению. Даже софт есть коммерческий для этого. Но в последнее время появились сомнения (Гугл полюбил синонимы и тд). В связи с этим была выдвинута даже теория "деоптимизации". Подробнее:
"Ураган Флорида" и деоптимизация Google
Если страницы будут разными (хоть немного) и правильно слинкованными, то получите сайт с высоким циркулирующим внутри PR, который можно будет направить на важную страницу.
Если страницы будут одинаковые, то Гугл их просто забанит или задвинет на 200-какое-нибудь место.
Индексить будет долго, во много заходов, если сочтет нужным и не потеряет интерес уже на 100-й странице (это зависит, опять же, от уникальности страниц). Все страницы должны быть связаны по теме.
Не знаю насчет 100 000, но 4800 страниц у меня замечательно продвигают одну-единственную, скромную, но очень важную страницу с другого сайта. И это полноценные страницы, дорвеями их никак не назовешь - они все реально полезны для посетителя - там есть из чего выбрать. Но подлинная цель у них все-таки одна. :)
Эта страница даже сам рекламируемый бренд обставила в Гугле, несмотря на то, что сей бренд тоже не лыком шит ;)
Ключевые слова к данной теме: dynamic database driven site, SSI, RSS, генератор случайных чисел.
Кстати, похожего эффекта (хотя и более слабого) можно достичь, создав тематический форум, генерирующий статические страницы (без ? в урлах) и строго модерируя его (не допуская нерелевантных топиков). Это, конечно, может не понравится некоторым юзерам, но хозяин - барин ;)
Однако, на это уйдет много времени... Для ускорения процесса можно написать "топик-бота", привязанного к большой базе данных. И регулярно эту базу пополнять собственным пауком.
Вульгарные дорвеи - вчерашний день. Есть куда более эффективный софт...
Только старайтесь искать каталоги, которые ставят ПРЯМЫЕ (не через редирект и динамические урлы) ссылки.
И не морочьтесь на PR слишком сильно - он, безусловно, важен, но есть и другие факторы ранжирования. Давно ходят слухи, что Гугл вообще может отказаться от PR...
Влияет, но меньше, чем если бы ссылки шли с других сайтов.
Тут играет роль не только PR, но и link popularity, что не одно и то же... Считайте, что ссылка с внешнего, не подпадающего под соответствующий фильтр, сайта примерно в 10 раз "тяжелее", чем с собственного. Не в плане голого PR, а в совокупности.
Об этом и речь. А вдруг Рамблер вычислит, что убрали href и забанит?! ;)
!? Машины начали java-script интерпретировать? О каких консолях речь?
Вот через кадры (обычные) ничего не передается. Недавно сайт переделывал - index.html - PR=3, а внутри все по нулям...
А вот как насчет <IFRAME>?
В данном случае речь шла о гифах, НЕ являющихся ссылками. Это просто статистические загрузки. Логика мифотворцев, видимо, такова: раз страница продвигает партнерскую программу, то Гугл считает ее "второсортной" и поэтому задвигает поглубже :) Ну не может по настоящему полезная страница рекламировать что-то там через CJ или BeeFree - это же низко! Разве может там быть ценная информация? Да там скорее принудительный редирект на мерча стоит! :) :)
Интересен другой вопрос: воруют ли PR однопиксельные рамблеровские гифы, или они просто не учитываются из-за размера?
А для кого сделаны 1-пиксельные рамблеровские гифы-ССЫЛКИ из кода рейтинга? Для посетителя, Рамблера, Яндекса или Гугла? ;)
Может того, подчистить их нафиг? ;)
1. 10 абсолютно одинаковых сайтов - это путь к бану.
2. Вариации "Бабочки", "Бриллианта", "Черной Дыры", "Мега-сайта".
Вес каждой из 1000 не имеет смысл увеличивать. Обычно такое строительство затевают ради нескольких (или всего одной) действительно ценных страниц "центрального сайта",
на которые весь PR и фокусируется в итоге.
3. Насчет поддоменов. Любит их Гугл. Для него это разные сайты.
Каждой нельзя, а нужной можно. Ключевые слова: PR, "утечка PR", java-script, Dynamic HTML, карта сайта, туннелирование.
Каждую поднимешь только при сквозной навигации и подпиткой извне.