DjOnline

Рейтинг
109
Регистрация
28.05.2006

Надо чтобы ещё PR страниц начал правильно определяться (причём ранее найденных системой).

Я сомневаюсь что такие вещи можно сделать дешевле чем за 5-10K (а то и 20), да и главное здесь - поддержка. Никому не нужен неразвивающийся сервис, а тем более сделанный за $1000 - он и работать будет адекватно. Или вы думаете что за $1000 можно создать систему, которая сможет обслуживать несколько тысяч сайтов, выдавая им коды ссылок, и при этом вселять уверенность во владельцев сайтов что ничего не упадёт от перегрузки ? Или что всегда будет хватать одного сервера ? Или что одного ip будет достаточно ?

Даже при наличии очень подробного ТЗ ещё бы месяц пришлось выяснять тонкие моменты и вносить предложения и улучшения, чтобы это выглядело достойным, да и браться за такую работу меньше чем за $20k + $4k поддержка смысла нет.

Итак, я решил первую проблемы - отслеживание заходов с русских поисковиков, сделав это в виде решения, независимого от текущей или будущей версии google analytics.

Перед вызовом UrchinTracker(); надо вставить следующий код:


_uOsr.push("rambler");_uOkw.push("words");
_uOsr.push("mail.ru");_uOkw.push("q");
_uOsr.push("aport");_uOkw.push("r");
_uOsr.push("nigma");_uOkw.push("q");
_uOsr.push("webalta");_uOkw.push("q");
_uOsr.push("google.ru");ya("q");
UrchinTracker();

Он успешно оттестирован, опробован, его можно занести в FAQ как наиболее рабочий и адаптированный к изменениям google analytics вариант.

странно, но никто в рунете раньше не публиковла такое изящное решение судя по яндексу, а судя по гуглю - из европейцев тоже никто, только трое китайцев :)

Для второй проблемы - отслеживание заходов со второй страницы яндекса пока не удалось придумать способ. Подстановка регулярного выражения вида .*%26text%3D* и замены на .*\&text=* применительно к Referral не помогает, хотя кое-какая мысль есть.

Да, Skady сказал верно:

Поэтому с первой страницы поиска посетители выдаются как "Organic", с остальных как "Referer".

Достаточно посмотреть на то что url второй страницы отличается от первой, а потом посмотреть в скрипт urchin.js - он ищет кейврод по "="+слово (text в случае яндекса). А при переходе на другие страницы поиска в яндексе url приобретает вид не &text= а %26text%3D (яндекс передаёт предыдущий url в виде параметра, что вынуждает его делать urlencode) - в итоге google analytics естественно не находит строку "text=" и поэтому не может определить кейворд, а поэтому не считает последующие страницы выдачи яндексом.

Я пытался это исправить путём создания custom правила в analytics - search & replace поля referral - %26text%3D -> &text= но это не привело к желаемому результату, да и ясно почему - процесс определения organic-неорганик идёт на стадии вызова urchinTracker(); на стороне клиента.

У кого-нибудь есть идеи как это пофиксить наиболее удобным способом ? Можно конечно скачать urchin.js и разместить его на своих сайтах, внеся необходимые изменения в него, но это не подходит, т.к. версия может обновиться, да и нехочется вносить столько изменений в сайты.

p.s. для тех кто ещё не знает как отслеживать другие ПС:

_uOsr[24]="rambler"; _uOkw[24]="words";

_uOsr[25]="mail.ru"; _uOkw[25]="q";

_uOsr[26]="aport"; _uOkw[26]="r";

_uOsr[27]="nigma"; _uOkw[27]="q";

_uOsr[28]="webalta"; _uOkw[28]="q";

_uOsr[29]="google.ru"; _uOkw[29]="q";

urchinTracker();

Но будьте внимательны, это работает только в текущей версии, раньше мне пришлось столкнуться с тем, что я задавал эти правила, и последний занятый номер в массиве был 21, а недавно осенью было обновление трэкера, в самом urchin.js появились новые ПС в массиве, и получилось что это затирало те определения, что немного попортило статистику.

Чем вас всех (кроме разработчиков) не устраивает google analytics ?

Самая "вкусная" возможность которая есть там и которой нет больше нигде (и в cnstat тоже) - e-commerce, возможность в момент непосредвенно покупки js-кодом отправлять данные о транзакции в статистику, чтобы потом удобно анализировать по каким слова пришли те, кто купил/оставил заявку, с каких referer и с каких поисковых машин.

Но есть кое что что меня там не устраивает:

-нигде нельзя увидеть с каких именно поисковых машин пришёл человек по этой фразе за этот период. Обратно можно узнать - взять referring sources и посмотреть keywords для каждого organic search source.

-невозможность для e-commerce анализировать подробно движение посетителя и прочеи вещи как в goals (а goals мне не подходят, так как глупо это - проверять по url свершилось некое действие или нет), видеть какая страница ближе к какому действию.

lexus2004:

и сделать такую функцию при добавление
например ставишь галочку "НЕ РАЗМЕЩАТЬ В 1 ДОМЕНЕ БОЛЕЕ 1 ССЫЛКИ"

Присоединяюсь, очень не хватает такой возможности, особенно при заказе только пиаристых ссылок.

Что ещё хочется: видеть сколько осталось свободных мест для размещения ссылок для выбранного PR (с учётом галки "не размещать в 1 домене более 1 ссылки") и выбранных тем - а то так можно заказать сотню PR4 и ждать их год, потому что доступно например только 10.

Хочется иметь возможность просмотра финансовых отчётов в удобной текстовой форме как для вебмастеров, так и для рекламодателей:

-когда и за сколько была куплена ссылка (текст ссылки) на сайт, с какого сайта(страницы) и какие у него параметры, рядом ссылка "проверить индексацию в яндексе" с соответствующим запросов в яндекс

-когда и за сколько была продана ссылка с сайта, с какой страницы с какими параметрами, какой текст ссылки и сколько это принесло ксапов.

- для каждого сайта (как продающего ссылки, так и покупающего) - видеть сколько он принёс/потратил денег(ксапов) всего и с разбивкой по месяцам.

- бонус для оптимизаторов - было бы логичнее начислять на аффилированный аккаунт оптимизатора бонус, потому как бонус по идее должен получить оптимизатор, а не аккаунт сайта клиента. Если оптимизатор захочет поделиться бонусом с этим аккаунтом - сам воспользуется функцией перевода ксапов.

Ещё хочу заметить, что на нескольких сайта неправильно определяется PR - пишется что он нулевой, хотя почти на всех страницах PR4-2, соответственно и ксапов начисляется всего 1.5 - непорядок.

Около 3 раз писал на email поддержки - ни одного ответа.

p.s. чем мне xap.ru нравиться больше чем sape.ru - так это тем что партнёрский бонус составляет 10% от депозита и 13% от вебмастеров, тогда как на sape.ru - всего 25% от 10% комиссии системы, то есть 2.5%.

p.p.s. в /1/ - надо бы изменить цены, и выводить в автоматических рассчётах как системы распределила ссылки между PR и ТиЦ - потому что цифра "будет размещено 15 ссылок" ничего не говорит, хочется видеть какие именно параметры будут у этих 15 ссылок, сколько будет с одним PR, с другим, сколько будет с таким ТиЦ и так далее.

Мда, в этом форуме невозможно удалить своё же сообщение..

Если туда еще автоприем оплаты прособачивать...

Это как раз не самая сложная часть, которую делать всего пару часов при наличии опыта.

Верно, есть ещё один способ - покупка блока из 256 ip адресов скажем за 1000р в месяц, что даёт совершенно легально делать 30.000 запросов в месяц к любой SE с каждого из 256 IP, получам стоимость 30к запросок = 4р (а не 25р как через платный XML), итого стоимость одного запроса = 0.0013 копейки, что примерно в 3 раза ниже чем стоимость запроса на seo-monitor.ru

Теперь возьмём озвученную выше цифру в 800 тысяч запросов в день, получаем 24 000 000 запроса в месяц, и озвученную цифру 2000 проектов. Если бы каждый проект был бы платный, то всё это прииносило бы как минимум 0.00002*24 000 000 = 480р в месяц, но я думаю платных аккаунтов там не больше 20%. А ещё есть расходы на аренду, на трафик, на стоимость и время поддержания проекта и обслуживания. В итоге я не совсем вижу, где здесь рентабельность.

Хотя да, есть ещё один подход - покупка блока IP адресов. Допустим блок из 256 ip адресов стоит 1000р в месяц, один ip адрес в таком случае обходится в 4р и позволяет делаеть совершенно легально 30.000 запросов в месяц для любой SE, в этом случае запрос обходится в 0,0013 копейки, что в 3 раза меньше стоимости запроса на seo-monitor. Но всё равно есть ещё бесплатные запросы, есть стоимость аренды сервера и трафик, затрачиваемое время и стоимость и время поддержки проекта.

Далее, возьмём цифру 800 000 запросов в сутки, получаем 24 000 000 запроса в месяц, и озвученную цифру 2000 проектов - выходит около 40 фраз на проект в среднем. Если бы каждый проект был бы на платном тарифном плане, то с одного запроса было бы как минимум 0,00002р. прибыли (то есть 480р в месяц), но платных аккаунтов я думаю не больше 20%. В итоге я совсем не понимаю где здесь рентабельность.

Попытаюсь оценить рентабельном проекта http://seo-monitor.ru/ :

Итак, официальная стоимость 1000к запросов к Yandex.XML для оптимизаторов составляет 25 рублей, то есть 2.5 копейки за запрос.

Смотрим тариф Econom на seo-monitor.ru - 6 копеек за проверку позиции 1 фразы, при этом глубина - 250. XML возращает по 10 позиций за запросов, выходит на проверку одной фразы тратиться 25 запросов, то есть 2.5 копеек* 25 запросов = в 6.25 копеек обходится один запрос seo-monitor.ru, при этом они продают его за 6 копеек. И где тут рентабельность ? Я конечно понимаю, что многие запросы повторяются (и поэтому удобно достаются из локального кэша), что многие из проверяемых сайтов находятся на первых страницах, но всё же рентабельности здесь не вижу. А есть ведь ещё тариф VIP, где похоже стоимость ещё ниже. А ещё есть бесплатные запросы (бесплатный тариф для начинающих), которые суммарно тоже тратят немалое количество XML запросов. Причём это расчёт только для Yandex, а получать гугль в XML тоже стоит денег. Да, не забываем, что yandex.XML для data mining доступен только с 0 до 12 и с 18 до 0, то есть только 3/4 суток.

Теперь возьмём тариф Free - 200 запросов * 100 сайтов * 25 XML запросов * 2 ps (скажем гугль и яндекс) = 30 000 000, стоимость тарифа - 1200р в месяц, 1200/ 30 000 000 = 0,00004 = 0,004 копейки. Уважаемы Zlo, как такое возможно - продавать ниже рентабельности покупки XML запросов ?

Всего: 142