- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На данный момент ситуация такая.
Есть страница tovar1.php
Если пользователь хочет посмотреть сразу все а не 20 штук по умочанию то получается мы его отправляем на tovar1.php?num=100
Если пользователь хочет отсортировать по цене то tovar1.php?sortbyprice=desc
Если пользователь хочет отфильтровать по цене, то...
Все эти страницы индексируются гуглом (хотя nofollow стоит, но как то он их находит иначе) и числятся гуглом как отдельные страницы.
Ну и т.д.
А если все делать через Ajax, то с точки зрения Google пользователь все время оставался на одной и той же страницы очень долгое время, проводя манипуляции по фильтрации и сортировке, а не уходит со страницы. В среднем момент, после которого пользователь перешел на другую страницу - отодвигается, на время манипуляций со страницей.
Какие ваши мысли по этому поводу?
В принципе мысль верная, только если вас интересует именно проблема дублей, то её можно решить с помощью канонического мета-тега или запрета индексации URL с параметрами.
гугл индексирует ajax запросы
В принципе мысль верная, только если вас интересует именно проблема дублей, то её можно решить с помощью канонического мета-тега или запрета индексации URL с параметрами.
Вот не знал про этот тег. Спасибо Пропишу везде. Бывает иногда ссылаются на мою страницу с форумов но с передачей кучи параметров - например фильтрации по цене. Получается, что указав канонический адрес на всех страницах с параметрами на главную я еще и вес передам на нужную мне страницу?
Да и все телодвжения на этой странице + параметры, гугл возможно будет воспринимать по отношениею именно к этой странице, если вдруг где-то будут задействованы поведенческие факторы.
---------- Добавлено 05.08.2016 в 14:48 ----------
В принципе мысль верная, только если вас интересует именно проблема дублей, то её можно решить с помощью канонического мета-тега или запрета индексации URL с параметрами.
Еще вопросик. Правильно ли будет тогда и страницам
site.com/product.php?page=2
site.com/product.php?page=3
site.com/product.php?page=4
site.com/product.php?page=5
site.com/product.php?page=6
прописать в link rel canonical site.com/product.php ?
если у меня все кроме первой страницы товара трафик не приносит?
Еще вопросик. Правильно ли будет тогда и страницам
site.com/product.php?page=2
site.com/product.php?page=3
site.com/product.php?page=4
site.com/product.php?page=5
site.com/product.php?page=6
Disallow: *?page*
Disallow: *?page*
Блин. Очевидно же! А я на nofollow надеялся. Минус 7000 бесполезных страниц из индекса
Задумался может сделать еще и Disallow: *?sort_by*. Это даст еще минус 30000 дубликатов.
Такие манипуляции Гуглом должны положительно оцениться, как вы думаете?
Задумался может сделать еще и Disallow: *?sort_by*. Это даст еще минус 30000 дубликатов.
Естественно, закрывайте все дубли, их быть не должно.
Ищите их в Гугл вебмастере:
Вид в поиске - Оптимизация HTML - Повторяющееся метаописание