- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
В интернет-магазине на Битриксе по умолчанию один товар доступен под разными адресами
Например,
1) домен / категория / подкатегория / товар
2) домен / категория / товар
Является ли это негативным фактором при продвижении?
На практике в поиск такие товары не попадают, как дубли.
Засчитываются ли в качестве поведенческого фактора ли посещения страниц по обоим адресам?
Является ли это негативным фактором при продвижении?
Да.
Засчитываются ли в качестве поведенческого фактора ли посещения страниц по обоим адресам?
Ну, в общем, да. Только страницы же разные. Если прописать на них канонический метатег, то ПФ будет накапливаться на канонической странице.
ПФ будет накапливаться
А как выяснить сумму этих накоплений?
В чём вообще она измеряется?.. а то неопределённая валюта какая-то.
Да.
а если робот переобходит страницу, но ее нет в поиске так как является дублем, правильные страницы всегда в поиске, но сам факт того, что роботы переобходят это нормально? или как то нужно удалять с сайта такие страницы?
а если робот переобходит страницу, но ее нет в поиске так как является дублем, правильные страницы всегда в поиске, но сам факт того, что роботы переобходят это нормально?
Бот железный, для него это нормально, он же нашёл где-то сцылку на что-то уже-бесполезное, но чтобы проверить бес/полезность — надо обратиться по HTTPs.
Если вам надо побыстрее [пере]индексить сайт, ссылками на дубли бота лучше не отвлекать.
Вообще сам способ индексации ранжирующими системами === прошлый век ≈ создание копии WWW.
Вот паша дуров сделает свою вселенную... если гуглы не опередят, где хостингом сайтов будет заниматься сама искалка...
Вообще лучше когда ссылка на товар выглядит типа
vashsait.ru/podukcia/kojaniye-kurtki-lacoste что то такое - так можно добавлять в несколько категорий
Можно попробовать добавить тег canonical главное что бы он был правильно настроен - то есть 1 урл основной (если на обоих страницах будет разный то может повлечь проблемы)