Надо чтобы ещё PR страниц начал правильно определяться (причём ранее найденных системой).
Я сомневаюсь что такие вещи можно сделать дешевле чем за 5-10K (а то и 20), да и главное здесь - поддержка. Никому не нужен неразвивающийся сервис, а тем более сделанный за $1000 - он и работать будет адекватно. Или вы думаете что за $1000 можно создать систему, которая сможет обслуживать несколько тысяч сайтов, выдавая им коды ссылок, и при этом вселять уверенность во владельцев сайтов что ничего не упадёт от перегрузки ? Или что всегда будет хватать одного сервера ? Или что одного ip будет достаточно ?
Даже при наличии очень подробного ТЗ ещё бы месяц пришлось выяснять тонкие моменты и вносить предложения и улучшения, чтобы это выглядело достойным, да и браться за такую работу меньше чем за $20k + $4k поддержка смысла нет.
Итак, я решил первую проблемы - отслеживание заходов с русских поисковиков, сделав это в виде решения, независимого от текущей или будущей версии google analytics.
Перед вызовом UrchinTracker(); надо вставить следующий код:
_uOsr.push("rambler");_uOkw.push("words"); _uOsr.push("mail.ru");_uOkw.push("q"); _uOsr.push("aport");_uOkw.push("r"); _uOsr.push("nigma");_uOkw.push("q"); _uOsr.push("webalta");_uOkw.push("q"); _uOsr.push("google.ru");ya("q"); UrchinTracker();
Он успешно оттестирован, опробован, его можно занести в FAQ как наиболее рабочий и адаптированный к изменениям google analytics вариант.
странно, но никто в рунете раньше не публиковла такое изящное решение судя по яндексу, а судя по гуглю - из европейцев тоже никто, только трое китайцев :)
Для второй проблемы - отслеживание заходов со второй страницы яндекса пока не удалось придумать способ. Подстановка регулярного выражения вида .*%26text%3D* и замены на .*\&text=* применительно к Referral не помогает, хотя кое-какая мысль есть.
Да, Skady сказал верно:
Достаточно посмотреть на то что url второй страницы отличается от первой, а потом посмотреть в скрипт urchin.js - он ищет кейврод по "="+слово (text в случае яндекса). А при переходе на другие страницы поиска в яндексе url приобретает вид не &text= а %26text%3D (яндекс передаёт предыдущий url в виде параметра, что вынуждает его делать urlencode) - в итоге google analytics естественно не находит строку "text=" и поэтому не может определить кейворд, а поэтому не считает последующие страницы выдачи яндексом.
Я пытался это исправить путём создания custom правила в analytics - search & replace поля referral - %26text%3D -> &text= но это не привело к желаемому результату, да и ясно почему - процесс определения organic-неорганик идёт на стадии вызова urchinTracker(); на стороне клиента.
У кого-нибудь есть идеи как это пофиксить наиболее удобным способом ? Можно конечно скачать urchin.js и разместить его на своих сайтах, внеся необходимые изменения в него, но это не подходит, т.к. версия может обновиться, да и нехочется вносить столько изменений в сайты.
p.s. для тех кто ещё не знает как отслеживать другие ПС:
_uOsr[24]="rambler"; _uOkw[24]="words";
_uOsr[25]="mail.ru"; _uOkw[25]="q";
_uOsr[26]="aport"; _uOkw[26]="r";
_uOsr[27]="nigma"; _uOkw[27]="q";
_uOsr[28]="webalta"; _uOkw[28]="q";
_uOsr[29]="google.ru"; _uOkw[29]="q";
urchinTracker();
Но будьте внимательны, это работает только в текущей версии, раньше мне пришлось столкнуться с тем, что я задавал эти правила, и последний занятый номер в массиве был 21, а недавно осенью было обновление трэкера, в самом urchin.js появились новые ПС в массиве, и получилось что это затирало те определения, что немного попортило статистику.
Чем вас всех (кроме разработчиков) не устраивает google analytics ?
Самая "вкусная" возможность которая есть там и которой нет больше нигде (и в cnstat тоже) - e-commerce, возможность в момент непосредвенно покупки js-кодом отправлять данные о транзакции в статистику, чтобы потом удобно анализировать по каким слова пришли те, кто купил/оставил заявку, с каких referer и с каких поисковых машин.
Но есть кое что что меня там не устраивает:
-нигде нельзя увидеть с каких именно поисковых машин пришёл человек по этой фразе за этот период. Обратно можно узнать - взять referring sources и посмотреть keywords для каждого organic search source.
-невозможность для e-commerce анализировать подробно движение посетителя и прочеи вещи как в goals (а goals мне не подходят, так как глупо это - проверять по url свершилось некое действие или нет), видеть какая страница ближе к какому действию.
Присоединяюсь, очень не хватает такой возможности, особенно при заказе только пиаристых ссылок.
Что ещё хочется: видеть сколько осталось свободных мест для размещения ссылок для выбранного PR (с учётом галки "не размещать в 1 домене более 1 ссылки") и выбранных тем - а то так можно заказать сотню PR4 и ждать их год, потому что доступно например только 10.
Хочется иметь возможность просмотра финансовых отчётов в удобной текстовой форме как для вебмастеров, так и для рекламодателей:
-когда и за сколько была куплена ссылка (текст ссылки) на сайт, с какого сайта(страницы) и какие у него параметры, рядом ссылка "проверить индексацию в яндексе" с соответствующим запросов в яндекс
-когда и за сколько была продана ссылка с сайта, с какой страницы с какими параметрами, какой текст ссылки и сколько это принесло ксапов.
- для каждого сайта (как продающего ссылки, так и покупающего) - видеть сколько он принёс/потратил денег(ксапов) всего и с разбивкой по месяцам.
- бонус для оптимизаторов - было бы логичнее начислять на аффилированный аккаунт оптимизатора бонус, потому как бонус по идее должен получить оптимизатор, а не аккаунт сайта клиента. Если оптимизатор захочет поделиться бонусом с этим аккаунтом - сам воспользуется функцией перевода ксапов.
Ещё хочу заметить, что на нескольких сайта неправильно определяется PR - пишется что он нулевой, хотя почти на всех страницах PR4-2, соответственно и ксапов начисляется всего 1.5 - непорядок.
Около 3 раз писал на email поддержки - ни одного ответа.
p.s. чем мне xap.ru нравиться больше чем sape.ru - так это тем что партнёрский бонус составляет 10% от депозита и 13% от вебмастеров, тогда как на sape.ru - всего 25% от 10% комиссии системы, то есть 2.5%.
p.p.s. в /1/ - надо бы изменить цены, и выводить в автоматических рассчётах как системы распределила ссылки между PR и ТиЦ - потому что цифра "будет размещено 15 ссылок" ничего не говорит, хочется видеть какие именно параметры будут у этих 15 ссылок, сколько будет с одним PR, с другим, сколько будет с таким ТиЦ и так далее.
Мда, в этом форуме невозможно удалить своё же сообщение..
Это как раз не самая сложная часть, которую делать всего пару часов при наличии опыта.
Верно, есть ещё один способ - покупка блока из 256 ip адресов скажем за 1000р в месяц, что даёт совершенно легально делать 30.000 запросов в месяц к любой SE с каждого из 256 IP, получам стоимость 30к запросок = 4р (а не 25р как через платный XML), итого стоимость одного запроса = 0.0013 копейки, что примерно в 3 раза ниже чем стоимость запроса на seo-monitor.ru
Теперь возьмём озвученную выше цифру в 800 тысяч запросов в день, получаем 24 000 000 запроса в месяц, и озвученную цифру 2000 проектов. Если бы каждый проект был бы платный, то всё это прииносило бы как минимум 0.00002*24 000 000 = 480р в месяц, но я думаю платных аккаунтов там не больше 20%. А ещё есть расходы на аренду, на трафик, на стоимость и время поддержания проекта и обслуживания. В итоге я не совсем вижу, где здесь рентабельность.
Хотя да, есть ещё один подход - покупка блока IP адресов. Допустим блок из 256 ip адресов стоит 1000р в месяц, один ip адрес в таком случае обходится в 4р и позволяет делаеть совершенно легально 30.000 запросов в месяц для любой SE, в этом случае запрос обходится в 0,0013 копейки, что в 3 раза меньше стоимости запроса на seo-monitor. Но всё равно есть ещё бесплатные запросы, есть стоимость аренды сервера и трафик, затрачиваемое время и стоимость и время поддержки проекта.
Далее, возьмём цифру 800 000 запросов в сутки, получаем 24 000 000 запроса в месяц, и озвученную цифру 2000 проектов - выходит около 40 фраз на проект в среднем. Если бы каждый проект был бы на платном тарифном плане, то с одного запроса было бы как минимум 0,00002р. прибыли (то есть 480р в месяц), но платных аккаунтов я думаю не больше 20%. В итоге я совсем не понимаю где здесь рентабельность.
Попытаюсь оценить рентабельном проекта http://seo-monitor.ru/ :
Итак, официальная стоимость 1000к запросов к Yandex.XML для оптимизаторов составляет 25 рублей, то есть 2.5 копейки за запрос.
Смотрим тариф Econom на seo-monitor.ru - 6 копеек за проверку позиции 1 фразы, при этом глубина - 250. XML возращает по 10 позиций за запросов, выходит на проверку одной фразы тратиться 25 запросов, то есть 2.5 копеек* 25 запросов = в 6.25 копеек обходится один запрос seo-monitor.ru, при этом они продают его за 6 копеек. И где тут рентабельность ? Я конечно понимаю, что многие запросы повторяются (и поэтому удобно достаются из локального кэша), что многие из проверяемых сайтов находятся на первых страницах, но всё же рентабельности здесь не вижу. А есть ведь ещё тариф VIP, где похоже стоимость ещё ниже. А ещё есть бесплатные запросы (бесплатный тариф для начинающих), которые суммарно тоже тратят немалое количество XML запросов. Причём это расчёт только для Yandex, а получать гугль в XML тоже стоит денег. Да, не забываем, что yandex.XML для data mining доступен только с 0 до 12 и с 18 до 0, то есть только 3/4 суток.
Теперь возьмём тариф Free - 200 запросов * 100 сайтов * 25 XML запросов * 2 ps (скажем гугль и яндекс) = 30 000 000, стоимость тарифа - 1200р в месяц, 1200/ 30 000 000 = 0,00004 = 0,004 копейки. Уважаемы Zlo, как такое возможно - продавать ниже рентабельности покупки XML запросов ?