my_id - это не слово, это цифры, которые всё время разные.
Именно поэтому нельзя написать Disallow: /path/to/file/my_id?SNS - это правило никогда не сработает, потому что такого url именно с текстом my_id в url в чистом виде не бывает.
Тогда уж не только количество внешних ссылок на странице, но и количество внешних ссылок НА страницу.
Gray, спасибо, теперь понял, каким образом идёт определение с какого рекламного объявления был переход который и вызвал в итоге транзакцию.
При клике на контекст ведь ставится кука с user id для .yandex.ru, и этот watch.js тоже подгружает картинку с bs.yandex.ru, что и позволяет прочесть куку с user id. Хорошее решение. Меня просто сбило с толку полное отсутствие упоминания куки в watch.js, после тщательного анализа и изменения кода google analytycs было непривычно :)
Ошибаюсь по поводу Метрики. По referrer не передаётся bs.count, а просто при определении наступления события отправляется код счётчика/сайта на сервер.
До Google Analytics Метрике очень и очень далеко.
Вручную вызывать событие наступления транзакции - невозможно.
Задать стоимость события, посчитать ROI и другие величины - тоже невозможно.
Событие только по совпадению адреса страницы - можно задать только финальный url, необходимые предшествующие ему нельзя. (глубину просмотра не упоминаю).
Но я всё равно рад этому шагу - ведь начало положено.
p.s. лучше предоставили код для интеграции с google analytics, пользы было бы во много раз больше.
Меня интересует, каким образом отслеживается фраза по которой был клик и фраза которую набирали - похоже проверяется рефёррер на наличие bs.yandex.ru, который редиректит на сайт рекламодателя, а в url referrer уже содержиться id, по которому это затем определяется. В этом они молодцы - не добавляются к сайту различные ?from_direct. Похожим образом, передавая через referrer лишь id информации сайту, работает и google analytics с adsense, и именно в этом и есть сложность прозрачного подключения сторонних для google PPC без добавления чего-либо к url сайта.
Отображение PR/ТиЦ для всех страниц, а не только для морд.
Ух ты, robots.txt научился понимать wildcards ?:) Не надо говорить неправду..
А товарищу надо сделать две вещи:
- настроить у себя на сайте чтобы не генерился этот SID
- и поставить счётчик например liveinternet, в котором есть функция отрубания любой фигни в url
А в чём отличия от многих других русских ежедневных анализаторов позиций, которые также умеют парсить гуглю и других ?
http://www.seosap.ru/seo/index.php?p=shop&show=showdetail&fid=000-888-010&categ=36&parent=0&navop=0&area=1
Мда.. неужели кто-нибудь верит в этот бред ? Особенно про "7000 белых каталогов". Или кому-то нужны 2000 безликих пользователей в день, которые уйдут через 10 секунд?
Ты хочешь чтобы программа сама за тебя генерировала эти конструкции ? 😕