Coolman

Рейтинг
75
Регистрация
17.10.2005

мой совет: посмотрите какими ссылками продвигались сайты по вашему запросу, посмотрите процент главных страниц, процент внтуренних, какие у них параметры и сделайте также.

впринципе главное чтобы страница была проиндексирована, тогда ссылка будет давать вес тем более в окружении релевантного текста

тоже столкнулся с такой проблемой, для себя выход нашел в том, чтобы купить общий домен в зоне com и проблемы с зоной пропадают

Идете в гугл по запросу баннерная сеть и покупаете там показы, дешево и сердито впринципе

Ещё из Вашей информации не понятно сколько ссылок стоит на сайт, какие ссылки и какие анкоры, а это всё учитывается в формуле ранжирования и плюс согласен с greatorange на сайте www.japancar.ru не встречается фраза "японкские запчасти"

Лучше 30 сайтов по 30 нч на каждом и будет Вам счастье :)

Разница есть, при прочих равных показателях ссылка со страницы mysite.com/elefant.html по идее будет более весомой

seraphim:
Нет, это я просто не так выразился. Но обратите внимание на графики в статье - после локального пика позиция снижается, но остается выше предыдущего уровня. А ТС описывает возврат на прежние позиции... Конечно, там из приведенных соотношений можно за уши притянуть и описываемый ТС случай (типа A>>B, B->0), но именно что за уши...

Ну это происходит именно из-за вливания ссылочного веса. На графиках видно что когда он делает вливания ссылочного на первых порах позиции подскакивают, потом они снижаются до какого-то уровня, но большего чем начальный, ладно если бы такое произошло один раз, потом делает второй раз подлив ссылочного и опять точно та же история. Если судить по тому что тут говорилось, то второго раза уже быть не должно или гугл по вашему уже забыл, что на этот сайт плохо кликают в топе ???

seraphim:
Не выдерживает никакой критики. Зачем брать сырые второстепенные данные и колбасить выдачу, если намного логичнее поступить наоборот - использовать то, что уже есть в индексе и постепенно разбираться с новыми данными? В Гугле не дураки сидят - наверняка рабастные методы используют...
Может, просто неправильно статью резюмировал? *ушел читать"

А по вашему намного логичнее выводить сайт в том, чтобы посмотреть как по нему будут кликать и как на него будут возвращаться ?? Посчитайте какое количество переменных прийдется держать n-ое количество времени. Если вы считаете что так логичнее, это не значит что так считают в гугле. Почитайте буржуйский эксперемент.

Вот тут есть забугорная статья по этому поводу. Это происходит по той причине, что после проставления ссылок идет такой себе всплеск позиций, то есть гугл посмотрел что на страницу поставили много ссылок и для того чтобы определить позицию сайта в выдаче он берет какие-то поверхностные данные, поскольку если собирать сразу все подробные данные о всех сайтах, с которых стоят ссылки, то у него тупо не хватит ресурсов, чтобы обработать все подобный проекты какие есть в сети. Но через некоторое время он возвращается обратно и начинает переколбашивать все ссылки разбираясь что к чему и только после этого уже выносит реальный вердикт сайту. Обычно оно обозначается всплеском позиций, а потом небольшим откатом. Вот как.

Всего: 318