- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вообще ХОСТ может обозначать адрес сервера, но в статистике часто под этим это имеется ввиду адрес клиента, определяемый по DNS из IP.
Вообще ХОСТ может обозначать адрес сервера, но в статистике часто под этим это имеется ввиду адрес клиента, определяемый по DNS из IP.
и чего? в плане теории я уже давно все понял - но на вопрос так и не получил ответа... чем ловить целевой трафик? на входе (внутренние переходы и достижение целей НЕ ИНТЕРЕСУЮТ!!!)
Спасибо за пинок в "репу" с комментарием "разница есть, причем большая".
Помогите мне тогда разобраться где разница в технологии?
По-моему отличия только в глубине анализируемых и отображаемых данных. Получают эти данные и обрабатывают одинаково. Или я не понимаю чего? 😒
Отвечаю всем :)
во-первых, платить оптимизатору за трафик (по-честному) следует исходя из оценки переходов по ключевым словам. Потому что оптимизатор отвечает только за позиции, он не отвечает за полноту информации, представленной на сайте и уж тем более за объем продаж. Всегда разумеется возможны варианты в сторону увеличения цены, т.к. он в этом случае разделяет с магазином риски.
во-вторых, все внешние системы статистики (liveinternet, hotlog, google analytics и др.) ошибаются в меньшую сторону. Т.е. к примеру пришло 1000 человек, а в статистике отражено в разных системах: 800, 944, 765. Это из-за специфики их технологий.
Самые точные данные только в ЛОГах на сервере.
Самые точные данные только в ЛОГах на сервере.
отлично, а можно ли эти самые логи анализировать на предмет "по каким ключевым словам зашли"? как? чем? (платные сервисы тоже рассматриваю)
и чего? в плане теории я уже давно все понял - но на вопрос так и не получил ответа... чем ловить целевой трафик? на входе (внутренние переходы и достижение целей НЕ ИНТЕРЕСУЮТ!!!)
Я просто ответил на Ваш вопрос, повторюсь - что бы практически разобраться лучше самому попробовать, к сожалению нет времени вникать в ваши критерии :)
отлично, а можно ли эти самые логи анализировать на предмет "по каким ключевым словам зашли"? как? чем? (платные сервисы тоже рассматриваю)
По каким ключевым словам зашли есть практически во всех анализаторах любого типа. Хороший скрипт анализа логов - AWSTATS. Но у такого типа счётчиков тоже есть минусы, опять таки - это можно понять на практике :)
опять таки - это можно понять на практике
так я согласен что практика - лучший учитель, однако сейчас нет времени практиковаться - завтра клиенту нужно предложение делать, и там надо указать как будем вообще оценивать и считать целевых посетителей (хосты, заходы, IP и т.д. - с этим тоже предстоит разобраться...).
P.S. а вообще судя по вялому движению в теме делаю вывод, что 99% сеошников работают не на целевой трафик, а на позиции...
Вот что по ключевикам в GA.
Можно в разрезе каждого поисковика смотреть, а можно вместе. Отображения по вкусу: таблицы, графики и т.п.
[ATTACH]7679[/ATTACH]
отлично, а можно ли эти самые логи анализировать на предмет "по каким ключевым словам зашли"? как? чем? (платные сервисы тоже рассматриваю)
Конечно можно, только нужна специальная программулина - анализатор вебсерверных ЛОГов, например WebTrends, Urchin (на его основе сделан сервис ГА). Думаю, за 200-300 долларов фрилансеры напишут по заданному ТЗ - там вопрос всего лишь пропарсить лог (текстовый файл), надергать из него адреса поисковиков и запросы и подсчитать их за выделенный промежуток времени. Самая "большая проблема" это обработать кодировки, т.к. могут встречаться разные.
Платный сервис плох, т.к. опять-таки не обеспечивает точных данных.