Virturoff

Рейтинг
50
Регистрация
16.01.2003
А что происходит с Alexa - просто не понимаю...

Может вот это поможет понять? :)

Посещаемость иностранного сайта

майл.ру вообще отстой - ввели цензуру, воюют с конкурирующими рассыльниками некорректными методами, засижены спамерами, фильтры включены по максимуму. Не заводите там мыл и вообще их бойкотируйте - они нарушают глобальное правило интернета о свободном обмене информацией - не дают ставить в рассылках ссылки на smartresponder и subscribe. Мало того - перед отправкой рассылки их паук шмонает сайты, на которые ведут ссылки и даже там (!!!) ищут субскрайбовские формы!!!

PS

Сорри за оффтопик - наболело. :(

Цитириую Leslie Rohde, программера с 30-ти летним стажем, "гиком", каковым он себя считает, и разработчиком OptiLink:

"Высокий рейтинг в Гугл почти полностью основан на 2-х факторах: Репутации Линка (Link Reputation) и PR".

(Из вступления к его книге Dynamic Linking)

Так вот "Репутация Линка" - это оно и есть.

Господа Rohde и Campbell не один лимон баксов сделали на открытии этой истины, в то время как другие парились над плотностью, метатегами и link popularity ;)

Но вот сейчас, кажется, это дает сбой (не во всех нишах, правда).

Может дело в том, что все ссылки имели одинаковый текст?

До "флоридского урагана" это не подлежало сомнению. Даже софт есть коммерческий для этого. Но в последнее время появились сомнения (Гугл полюбил синонимы и тд). В связи с этим была выдвинута даже теория "деоптимизации". Подробнее:

"Ураган Флорида" и деоптимизация Google

Что если создать сайт со 100 000 страницами ?

Если страницы будут разными (хоть немного) и правильно слинкованными, то получите сайт с высоким циркулирующим внутри PR, который можно будет направить на важную страницу.

Если страницы будут одинаковые, то Гугл их просто забанит или задвинет на 200-какое-нибудь место.

Индексить будет долго, во много заходов, если сочтет нужным и не потеряет интерес уже на 100-й странице (это зависит, опять же, от уникальности страниц). Все страницы должны быть связаны по теме.

Не знаю насчет 100 000, но 4800 страниц у меня замечательно продвигают одну-единственную, скромную, но очень важную страницу с другого сайта. И это полноценные страницы, дорвеями их никак не назовешь - они все реально полезны для посетителя - там есть из чего выбрать. Но подлинная цель у них все-таки одна. :)

Эта страница даже сам рекламируемый бренд обставила в Гугле, несмотря на то, что сей бренд тоже не лыком шит ;)

Ключевые слова к данной теме: dynamic database driven site, SSI, RSS, генератор случайных чисел.

PS

Кстати, похожего эффекта (хотя и более слабого) можно достичь, создав тематический форум, генерирующий статические страницы (без ? в урлах) и строго модерируя его (не допуская нерелевантных топиков). Это, конечно, может не понравится некоторым юзерам, но хозяин - барин ;)

Однако, на это уйдет много времени... Для ускорения процесса можно написать "топик-бота", привязанного к большой базе данных. И регулярно эту базу пополнять собственным пауком.

Вульгарные дорвеи - вчерашний день. Есть куда более эффективный софт...

конечно, есть. Если это, например, каталог какой-то халявный, то чего вам стоит там зарегистрироваться?

Только старайтесь искать каталоги, которые ставят ПРЯМЫЕ (не через редирект и динамические урлы) ссылки.

И не морочьтесь на PR слишком сильно - он, безусловно, важен, но есть и другие факторы ранжирования. Давно ходят слухи, что Гугл вообще может отказаться от PR...

Если это множество ссылающихся страниц будет на одном домене, но на разных страницах - это влияет и как?

Влияет, но меньше, чем если бы ссылки шли с других сайтов.

Тут играет роль не только PR, но и link popularity, что не одно и то же... Считайте, что ссылка с внешнего, не подпадающего под соответствующий фильтр, сайта примерно в 10 раз "тяжелее", чем с собственного. Не в плане голого PR, а в совокупности.

Вот, a href с этого гифа, в принципе, убрать можно без ущерба для сбора статистики...

Об этом и речь. А вдруг Рамблер вычислит, что убрали href и забанит?! ;)

Люди говорят, что сейчас, в некоторых случаях передается и через exit консоль ...

!? Машины начали java-script интерпретировать? О каких консолях речь?

Вот через кадры (обычные) ничего не передается. Недавно сайт переделывал - index.html - PR=3, а внутри все по нулям...

А вот как насчет <IFRAME>?

В данном случае речь шла о гифах, НЕ являющихся ссылками. Это просто статистические загрузки. Логика мифотворцев, видимо, такова: раз страница продвигает партнерскую программу, то Гугл считает ее "второсортной" и поэтому задвигает поглубже :) Ну не может по настоящему полезная страница рекламировать что-то там через CJ или BeeFree - это же низко! Разве может там быть ценная информация? Да там скорее принудительный редирект на мерча стоит! :) :)

Интересен другой вопрос: воруют ли PR однопиксельные рамблеровские гифы, или они просто не учитываются из-за размера?

Общий принцип - все, что сделано не для посетителя, а исключительно для поисковика

А для кого сделаны 1-пиксельные рамблеровские гифы-ССЫЛКИ из кода рейтинга? Для посетителя, Рамблера, Яндекса или Гугла? ;)

Может того, подчистить их нафиг? ;)

Как писал Mlin_!
:)

У меня вопрос..

Если создать 10 одинаковых сайтов каждый из которых имеет 100 страниц, какой оптимальный вариант линкования можно пременить чтобы увеличить вес каждой из этих 1000 страниц ?
Спасибо 🍻

1. 10 абсолютно одинаковых сайтов - это путь к бану.

2. Вариации "Бабочки", "Бриллианта", "Черной Дыры", "Мега-сайта".

Вес каждой из 1000 не имеет смысл увеличивать. Обычно такое строительство затевают ради нескольких (или всего одной) действительно ценных страниц "центрального сайта",

на которые весь PR и фокусируется в итоге.

3. Насчет поддоменов. Любит их Гугл. Для него это разные сайты.

Каждой нельзя, а нужной можно. Ключевые слова: PR, "утечка PR", java-script, Dynamic HTML, карта сайта, туннелирование.

Каждую поднимешь только при сквозной навигации и подпиткой извне.

Всего: 46