Я работаю и с Болеро и с Мегашопом и с Араматом и с Доставкой (тоже eHouse.ru)
У Болеро были глюки со статсой, но они все утресли и сча все нормально, причем баланс обнавляется раз в сутки. Я раньше тоже кидал в их сторону камень, сча вроде стало все стабильно, тока после запроса надо ждать недели две :(
С Мегашопом заморочек много, они бабки передают через службы доставки... Ко мне дяденька как-то домой пришел и принес денюжки, правда забрал 83 р. за то, что пришел ко мне домой :)
Доставка - ну платят нормально, раньше там Вадим партнерами занимался, я по асе с ним часто трепался, платят раз в мес. и тоже по запросу, счас там устроился некий Алексей, так он неделю все обещает выплатить, у них там дурдом какой-то...
С Араматом вроде нету проблем, но один раз как-то пришлось понервничать, когда они что-то тормозили с выплатами...
Очевидна и скрипты тут не помогут... Как говриться надо брать качеством а не количеством, 2-3 ссылки с тяжелой артилерии с PR=6,7 и ВСЕ! Проверено неоднократно :)
Когда нибудь узнает, а может и никогда не узнает :)
Если у страницы есть PR, значит она когда-то была в кэше. А если ее счас нет, возможно у нее уже нет BL. Если это так, то никогда не узнает. Это можно проанализировать так:
Допустим ваша страница называется A, а страница на которой стоит на вас ссылка - B.
Т. е. B->A
Надо найти все страницы, которые ссылаются на B, допустим эта одна страница C. С->B->A
Если она в кэше, то надо просто подождать, если нет, то надо искать следующую страницу, которая ссылается на C, допустим - D: D->C->B->A
и т. д., пока не наткнетесь на страницу в кэше.
Но все это теоретическая билиберда, которую лично мне было бы лень проверять. Проще взять и навешать побольше ссылок на сайтах которые есть в кэше :)
Истина! После первого цикла, для гугла так называемых складируемых страниц предыдущего цикла не будет существовать. Нет ссылки - нет страницы.
Плюс никто кроме гугля не знает очередного расчета итерации PR, так называемого внутренного PR. По слухам одна итерация просчитывается раз в неделю :), но это только слухи...
Я не делал специально таких приемов, но они косвенно вытекали из практики. Был у меня один сайтик и я часто на нем менял всю структуру и начинку. Гугл ходил по новым ссылкам а старые на которых не было больше ссылок (как бы они в роли склада) вычищались из кэша подчистую, хоть и торчали там долгое время. Конечно небольшой эффект может и будет но очень маленький и будет стремиться к нулю после очередной переиндексации сайта.
Есть в этом смысл, причем надо брать рабочий сайт - так надежнее... Я даже советую не сносить сайт а просто добавить на него субдоменов с этими самыми дорами.
ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ ВНЕШНИЕ ССЫЛКИ!!!
Их даже можно купить.
Их можно купить для буржуйского сайта на русском сайте.
В РуНете есть рекламный брокер CLX.ru
У него есть партнерка за размещение прямых линков за посуточную оплату... Такая реклама довольно дорогая, поэтому советую подождать 2-3 для и из скопившихся партнеров отобрать сайты с PR>=5!
К этому выводу я и пришел :)
Падение трафика повлекло за собой потерю $30 в сутки :(
У меня траф с НЧ запросов, поэтому я не анализирую позиции. Суммарный траф упал, видимо и позиции отдельных страничек попадали - логика тут железная :)
БД amazon.com =) все товары...
Пока что гугл субдомен считает за отдельный сайт. Я делал опыты, ставил в цепочку 7 субдоменов и пускал гугла на первый, так вот через пару суток все 7-ро были в индексе :)
Если тоже самое сделать со страницами одного сайта, то до 7-ой страницы гугл доберется ой как не скоро и это будет зависеть от PR придыдущих страниц. У всех сразу пробежит мысль. А если сделать сайт из субдоменов? Его что гугл сразу весь проглотит с PR=0? Я именно так подумал и сделал сайт из 3-ех миллионов субдоменов. Т. е. любая страница сайта - это субдомен, в имени которого передаются параметры (сайт динамический). На след сутки гугл делал до 100 запросов в секунду!!! Создавая отдельные процессы на каждый сайт. Я решил, что я создал чудо структуру, которая будет индексироватья не зависимо от PR. А дальше начались проблемы :) Оказывается, что гугл будет индексить на самом деле сайт целиком. И все 3 лимона субдоменов он обойдет без проблем причем с такой скоростью, что не выдержит не один сервак. Я повалил 4-ех процессорного монстра с 4-мя Гигами памяти :) Результат моих экспериментов привел к следующим выводам:
1. Для добавления субдомена в индекс нужен меньший порог PR чем для обычной страницы.
2. Гугл придет индексировать мгновенно как увидит ссылку, т. е. не надо ждать вообще!
3. Самое то, что не увенчалось успехом. В ИНДЕКСЕ БУДЕТ РОВНО СТОЛЬКО СТРАНИЦ, СКОЛЬКО ПОЗВОЛИТ PR!!!
Т. е. субдомены кроме быстрой индексации ничего не дали...
А постоянная борьба с наплывами ботов меня однажды достала (все знают, что гугл почти каждый день проверяет главные страницы сайтов), и я переделал сайт на обычные страницы.