- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как отнесется поисковик к добавлению блока с рандомом товаров в карточку товара?
Сделать это хочу не столько для ПС :idea:, сколько для CTR и роста среднего чека. В топе много низкочастотки, по которым ходят люди на сайт.
Был неудачный опыт - разместил на морде сайта карусель картинок товаров со ссылками на эти товары. И в индекс залетело более 100 дублей морды. :(
Опасаюсь:
1. Наклепать еще кучу дублей.
2. Размытия ключей.
3. Утекания веса.
Что посоветуете господа?
Как отнесется поисковик к добавлению блока с рандомом товаров в карточку товара?
Сделать это хочу не столько для ПС ☝, сколько для CTR и роста среднего чека. В топе много низкочастотки, по которым ходят люди на сайт.
Был неудачный опыт - разместил на морде сайта карусель картинок товаров со ссылками на эти товары. И в индекс залетело более 100 дублей морды. :(
Опасаюсь:
1. Наклепать еще кучу дублей.
2. Размытия ключей.
3. Утекания веса.
Что посоветуете господа?
Ну если нормально делать, то дублей не должно появиться. Практически во всех магазинах сейчас есть штуки типа "с этим товаром покупают также:" или "рекомендуемые товары:" там часто рандомайз из определенного набора идет, потом устаканиваются позиции по CTRу.
А если закрыть блок в <noindex>, не похерит ли алгоритм из выдачи нужные документы? А то ведь в блоке рандом товаров, а я говорю поисковику ноиндекс.
А если закрыть блок в <noindex>, не похерит ли алгоритм из выдачи нужные документы? А то ведь в блоке рандом товаров, а я говорю поисковику ноиндекс.
ХЗ, не пробовал. А нафига?
AVSPB, выводите, нормально пс отнесутся к этому. Главное сделайте не через 5-ю точку и все
ЗЫ
ноиндекс не нужен
Читал на форуме что Яша статику любит. Как он к этому отнесется? И еще интересно, веса сильных страниц не растекутся?
Сделать это хочу не столько для ПС ☝, сколько для CTR и роста среднего чека.
сомневаюсь, что от случайного товара, возрастет CTR
что мешает использовать возможность, которая сейчас есть практически во всех движках, "связанные товары", "с этим товаром покупают", "похожий товар" и тд
почему нужен именно случайный товар?
Как отнесется поисковик к добавлению блока с рандомом товаров в карточку товара?
Сделать это хочу не столько для ПС ☝, сколько для CTR и роста среднего чека. В топе много низкочастотки, по которым ходят люди на сайт.
Был неудачный опыт - разместил на морде сайта карусель картинок товаров со ссылками на эти товары. И в индекс залетело более 100 дублей морды. :(
Опасаюсь:
1. Наклепать еще кучу дублей.
2. Размытия ключей.
3. Утекания веса.
Что посоветуете господа?
Не очень понятно, как могли залететь 100 дублей морды, когда дубль формируется в случае, если с одним и тем же контентом связаны разные ссылки. Но для избавления от дублей используют обычно вот такое https://support.google.com/webmasters/answer/139066?hl=ru
Не очень понятно, как могли залететь 100 дублей морды, когда дубль формируется в случае, если с одним и тем же контентом связаны разные ссылки. Но для избавления от дублей используют обычно вот такое https://support.google.com/webmasters/answer/139066?hl=ru
Тоже не особо понимаю как. Но есть НО
На сайте стоит поиск от Яндекса, он после обработки запроса генерит урл "/?searchid=ХХХХХХХ&text=всякая%20хрень&web=0" При этом остается тайтл и контент морды + результат поиска. Вот морды и урлы с запросами пользователей залетели в индекс. Пришлось в роботсе запретить "searchid=ХХХХХХХ"
Тоже не особо понимаю как. Но есть НО
На сайте стоит поиск от Яндекса, он после обработки запроса генерит урл "/?searchid=ХХХХХХХ&text=всякая%20хрень&web=0" При этом остается тайтл и контент морды + результат поиска. Вот морды и урлы с запросами пользователей залетели в индекс. Пришлось в роботсе запретить "searchid=ХХХХХХХ"
Тогда отрежьте индексацию таких урлов в robots.txt и дело с концом. Обычная процедура.
Тогда отрежьте индексацию таких урлов в robots.txt и дело с концом. Обычная процедура.
Проблема кажется вот в чем, сайт под управлением Joomla и морда сайта не является канонической, что есть сигнал для ПС загоняй в индекс сколь угодно дублей :(