- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет.
Возникла интересная проблема и хотелось бы выслушать ваши мнения. Может у кого то даже практический опыт был.
Проблема: если часть контента на сайте грузить асинхронно (фильтры, товары с другим цветом / размером и т.п.), то Я.Метрика и Universal Analytics не зачтут переход на эту страницу. А следовательно ухудшится показатели вовлеченности пользователей (глубина, время, отказы).
Решение: при асинхронной загрузке просто создавать хит в Метрике и UA, как и при любой другой загрузки страницы. Но эта штука сильно похожа на действия по манипулированию поисковыми системами, ибо из-за каких то действий пользователей создаются новые страницы в системах аналитики.
Платон сказал:
«Никита, если указанный приём не направлен на обман поисковой системы и манипулирование результатами её работы, то санкций за него с нашей стороны быть не должно.»
Во-первых, смущает фраза «если указанный приём не направлен на обман поисковой системы и манипулирование результатами её работы», ибо трактовать можно как хочешь. По факту, в таком случае должен сработать переход на другую страницу (если это делать без асинхронного кода), поэтому, вроде, все норм.
Во-вторых, смущает «быть не должно». Прям как то не уверенно :D
Что думаете?
Вы же в индекс не вводите эту страницу. Да и если бы и вводили - это опять же вам плюсов не дало бы...
Действительно, не видно ничего, за что можно придраться.
А не уверены они, потому что они там уже придатками своего матрикснета стали:)
А как вы хит-то создаете? Может, в реализации подвох? Не могу придумать просто, как это сделать, кроме как реальной генерации как бы разрешенных к индексации страниц (без #), но с запретом их индексации.
Но даже если и так - ну и норм вроде.
Хит нужно создавать не во время загрузки этого контента, а во время клика по этому полю.
Это решает сразу несколько задач: определяем заинтересованность аудитории в этом контенте, получаем возможность строить составные цели в ГА, карта кликов становится понятнее и другие плюшки.
И никакого обмана там нет. Таким приемом пользуются 99% инетмагазинов, в различной степени реализации.
И еще одна тонкость - виртстраница должна иметь полностью уникальный URI. Если создаем /vstr1, то на сайте не должно быть, как минимум такой страницы, так и не должно быть /catalog/vstr1, /catalog/podcatalog/vstr1 и так далее.
Вы же в индекс не вводите эту страницу.
Фильтры индексируем, как без них :)
Да и если бы и вводили - это опять же вам плюсов не дало бы...
Ну как же, например, самый банальный случай с отработкой категорийно-брендового спроса.
И еще одна тонкость - виртстраница должна иметь полностью уникальный URI. Если создаем /vstr1, то на сайте не должно быть, как минимум такой страницы, так и не должно быть /catalog/vstr1, /catalog/podcatalog/vstr1 и так далее.
Там URL будет адекватный, как и для других страниц.
Например, site.ru/category/samsung/, где /samsung/ - значение фильтра.
А что будет, если URI будет не уникальным? Чем грозит?