creation

Рейтинг
195
Регистрация
13.01.2004

Я работаю и с Болеро и с Мегашопом и с Араматом и с Доставкой (тоже eHouse.ru)

У Болеро были глюки со статсой, но они все утресли и сча все нормально, причем баланс обнавляется раз в сутки. Я раньше тоже кидал в их сторону камень, сча вроде стало все стабильно, тока после запроса надо ждать недели две :(

С Мегашопом заморочек много, они бабки передают через службы доставки... Ко мне дяденька как-то домой пришел и принес денюжки, правда забрал 83 р. за то, что пришел ко мне домой :)

Доставка - ну платят нормально, раньше там Вадим партнерами занимался, я по асе с ним часто трепался, платят раз в мес. и тоже по запросу, счас там устроился некий Алексей, так он неделю все обещает выплатить, у них там дурдом какой-то...

С Араматом вроде нету проблем, но один раз как-то пришлось понервничать, когда они что-то тормозили с выплатами...

Как писал greenwood


не совсем так ..
сейчас скрипт заказал .. с помощью его легче будет найти залотую середину ... но зависимость выдачи от колличества и периодичности их уже очевидна.

Очевидна и скрипты тут не помогут... Как говриться надо брать качеством а не количеством, 2-3 ссылки с тяжелой артилерии с PR=6,7 и ВСЕ! Проверено неоднократно :)

Когда нибудь узнает, а может и никогда не узнает :)

Если у страницы есть PR, значит она когда-то была в кэше. А если ее счас нет, возможно у нее уже нет BL. Если это так, то никогда не узнает. Это можно проанализировать так:

Допустим ваша страница называется A, а страница на которой стоит на вас ссылка - B.

Т. е. B->A

Надо найти все страницы, которые ссылаются на B, допустим эта одна страница C. С->B->A

Если она в кэше, то надо просто подождать, если нет, то надо искать следующую страницу, которая ссылается на C, допустим - D: D->C->B->A

и т. д., пока не наткнетесь на страницу в кэше.

Но все это теоретическая билиберда, которую лично мне было бы лень проверять. Проще взять и навешать побольше ссылок на сайтах которые есть в кэше :)

Как писал Balabass
ваша теория не сработает, тк при отсутствии ссылки на станицу гугл её потеряет... дальше 1 цикла вы не дойдёте...

Истина! После первого цикла, для гугла так называемых складируемых страниц предыдущего цикла не будет существовать. Нет ссылки - нет страницы.

Плюс никто кроме гугля не знает очередного расчета итерации PR, так называемого внутренного PR. По слухам одна итерация просчитывается раз в неделю :), но это только слухи...

Я не делал специально таких приемов, но они косвенно вытекали из практики. Был у меня один сайтик и я часто на нем менял всю структуру и начинку. Гугл ходил по новым ссылкам а старые на которых не было больше ссылок (как бы они в роли склада) вычищались из кэша подчистую, хоть и торчали там долгое время. Конечно небольшой эффект может и будет но очень маленький и будет стремиться к нулю после очередной переиндексации сайта.

Как писал Bluberry
но ведь на такой домен уже ссылается какоето колличество сайтов... вес у него больше....
поидее индексация доров пройдет быстрее и удачнее, по теории...
или смысла нет всетаки?

Есть в этом смысл, причем надо брать рабочий сайт - так надежнее... Я даже советую не сносить сайт а просто добавить на него субдоменов с этими самыми дорами.

ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ!!!

Их даже можно купить.

Их можно купить для буржуйского сайта на русском сайте.

В РуНете есть рекламный брокер CLX.ru

У него есть партнерка за размещение прямых линков за посуточную оплату... Такая реклама довольно дорогая, поэтому советую подождать 2-3 для и из скопившихся партнеров отобрать сайты с PR>=5!

Как писал spark
Но я думал, что это связано с изменениями на сайте, а не с гугл вцелом

К этому выводу я и пришел :)

Падение трафика повлекло за собой потерю $30 в сутки :(

Как писал greenwood
ну и вопрос !!! :) сайт-то по запросу хоть на месте или свалился .. ?

У меня траф с НЧ запросов, поэтому я не анализирую позиции. Суммарный траф упал, видимо и позиции отдельных страничек попадали - логика тут железная :)

Как писал absolut
Какой контент был на поддоменах?

БД amazon.com =) все товары...

Как писал unregistered

и что если sub-доменов много?

Пока что гугл субдомен считает за отдельный сайт. Я делал опыты, ставил в цепочку 7 субдоменов и пускал гугла на первый, так вот через пару суток все 7-ро были в индексе :)

Если тоже самое сделать со страницами одного сайта, то до 7-ой страницы гугл доберется ой как не скоро и это будет зависеть от PR придыдущих страниц. У всех сразу пробежит мысль. А если сделать сайт из субдоменов? Его что гугл сразу весь проглотит с PR=0? Я именно так подумал и сделал сайт из 3-ех миллионов субдоменов. Т. е. любая страница сайта - это субдомен, в имени которого передаются параметры (сайт динамический). На след сутки гугл делал до 100 запросов в секунду!!! Создавая отдельные процессы на каждый сайт. Я решил, что я создал чудо структуру, которая будет индексироватья не зависимо от PR. А дальше начались проблемы :) Оказывается, что гугл будет индексить на самом деле сайт целиком. И все 3 лимона субдоменов он обойдет без проблем причем с такой скоростью, что не выдержит не один сервак. Я повалил 4-ех процессорного монстра с 4-мя Гигами памяти :) Результат моих экспериментов привел к следующим выводам:

1. Для добавления субдомена в индекс нужен меньший порог PR чем для обычной страницы.

2. Гугл придет индексировать мгновенно как увидит ссылку, т. е. не надо ждать вообще!

3. Самое то, что не увенчалось успехом. В ИНДЕКСЕ БУДЕТ РОВНО СТОЛЬКО СТРАНИЦ, СКОЛЬКО ПОЗВОЛИТ PR!!!

Т. е. субдомены кроме быстрой индексации ничего не дали...

А постоянная борьба с наплывами ботов меня однажды достала (все знают, что гугл почти каждый день проверяет главные страницы сайтов), и я переделал сайт на обычные страницы.

Всего: 948