DjOnline

Рейтинг
109
Регистрация
28.05.2006

my_id - это не слово, это цифры, которые всё время разные.

Именно поэтому нельзя написать Disallow: /path/to/file/my_id?SNS - это правило никогда не сработает, потому что такого url именно с текстом my_id в url в чистом виде не бывает.

Тогда уж не только количество внешних ссылок на странице, но и количество внешних ссылок НА страницу.

Gray, спасибо, теперь понял, каким образом идёт определение с какого рекламного объявления был переход который и вызвал в итоге транзакцию.

При клике на контекст ведь ставится кука с user id для .yandex.ru, и этот watch.js тоже подгружает картинку с bs.yandex.ru, что и позволяет прочесть куку с user id. Хорошее решение. Меня просто сбило с толку полное отсутствие упоминания куки в watch.js, после тщательного анализа и изменения кода google analytycs было непривычно :)

Ошибаюсь по поводу Метрики. По referrer не передаётся bs.count, а просто при определении наступления события отправляется код счётчика/сайта на сервер.

До Google Analytics Метрике очень и очень далеко.

Вручную вызывать событие наступления транзакции - невозможно.

Задать стоимость события, посчитать ROI и другие величины - тоже невозможно.

Событие только по совпадению адреса страницы - можно задать только финальный url, необходимые предшествующие ему нельзя. (глубину просмотра не упоминаю).

Но я всё равно рад этому шагу - ведь начало положено.

p.s. лучше предоставили код для интеграции с google analytics, пользы было бы во много раз больше.

Меня интересует, каким образом отслеживается фраза по которой был клик и фраза которую набирали - похоже проверяется рефёррер на наличие bs.yandex.ru, который редиректит на сайт рекламодателя, а в url referrer уже содержиться id, по которому это затем определяется. В этом они молодцы - не добавляются к сайту различные ?from_direct. Похожим образом, передавая через referrer лишь id информации сайту, работает и google analytics с adsense, и именно в этом и есть сложность прозрачного подключения сторонних для google PPC без добавления чего-либо к url сайта.

Отображение PR/ТиЦ для всех страниц, а не только для морд.

albion:
И они будут всегда стоять, т.к. будут отдавать код 200, если вы не запретите эти урлы.

Добавьте в robots.txt на сервере такую запись:

P.S. надеюсь правильно написал.

или при запросе таких страниц отдавайте код 404, 403 или 301

Ух ты, robots.txt научился понимать wildcards ?:) Не надо говорить неправду..

А товарищу надо сделать две вещи:

- настроить у себя на сайте чтобы не генерился этот SID

- и поставить счётчик например liveinternet, в котором есть функция отрубания любой фигни в url

А в чём отличия от многих других русских ежедневных анализаторов позиций, которые также умеют парсить гуглю и других ?

http://www.seosap.ru/seo/index.php?p=shop&show=showdetail&fid=000-888-010&categ=36&parent=0&navop=0&area=1

Мда.. неужели кто-нибудь верит в этот бред ? Особенно про "7000 белых каталогов". Или кому-то нужны 2000 безликих пользователей в день, которые уйдут через 10 секунд?

New_Angel:
Итак...
Не стал читать все, но мне интересна прога, если я могу генерировать анкоры вставив столбиком запросы штук 500 скажем, причем начало кода ссылки я могу указать сам и несколько вариантов, также я должен выбрать не больше скольки символов генерить должно, то беру! :)

Если там будет заморочки вс\кие как в сабмиттере типа: Продаем {{высоко|}качественные|современные} кондиционеры.

Я вот точно не буду заниматься таким вот рукоблудством! Если мне надо сгенерировать 500 запросов, что тогда я должен делать, неделю потратить на эти вот составления?!

Ты хочешь чтобы программа сама за тебя генерировала эти конструкции ? 😕

Всего: 142