And-rey

Рейтинг
78
Регистрация
01.04.2012

Как-то тема вроде незавершённая осталась... Типа "Подождите! А кто же это всё-таки убил Нолестро?" )) Или мне показалось.

Чтобы не плодить новую, хотелось бы услышать как дела обстоят со страницами пагинаций, по состоянию на 2018г.?

Вот здесь /ru/forum/comment/15490975 приведены популярные варианты реализации "настроек индексации" этих страниц. Но не понравилось позже в комментах, что используются спецпараметры ?page= в урл... Окей.

Допустим seo-урлы будут у страниц пагинаций типа

https://myshop.com/category/page-5

или

https://myshop.com/okna/pvh/stranitsa-5

Всё-таки какой из приведённых вариантов в комменте по ссылке можно использовать? Или "рекомендуется". Никто не говорит об обязательности, потому что как правильно, там и в гугл сами не ответят толком )

Всё там есть в метатэгах - view-source:https://www.medknizh-msk.ru потому гугл и в сниппет эти данные написал.

Нижнее подчёркивание перед урл убрать ":_https"

burunduk:
ни один, наличие любых параметров в url - зло, с которым правильно работать практически ни кто не умеет и как следствие возникает огромная куча проблем

Если в урл более 60-80 знаков, среди которых есть и спецсимоволы, то для ПС однозначно недружелюбный урл. Здесь же всего-то в урл находится ?page=4 А страницы сортировок или пагинаций, реализованные различными CMS - без проблем заходят в индекс. Яркий пример тому, что стоит убрать запрет в robots.txt и они все за сутки заскочат в Яндекс и Гугл.

donc:
Яндекс этого не понимает, по крайнее мере в списке поддерживаемых тегов их нет

Аналогично и у Гугл: он не понимает тэг <noindex>, просто его опускает. Такая же ситуация и у Яндекса с этими вспомогательными атрибутами rel="next" и rel="prev". Но для Гугл они нужны, они об этом в блоге не раз упоминали.

aleksandrbol:
чего может быть полезного в страницах пагинации для пользователя?

Да это всё делается не для пользователя, а для "давления" на мозги ПС (точнее попытки), что мол на этом сайте действительно большой выбор товаров, полезный ресурс на котором есть множества для выбора подходящего из запроса.

Так же многие вебмастера усиливают саму первую категорийную страницу, проставляя на последующих 1000 стр в коде тэг

<link href="https://myshop.com/category/" rel="canonical" />

Вот насколько это проверено и стоит ли - вот что еще со вчера меня интересует.

Из рубрики "Наша песнь хороша, начинай сначала" ))

Данная тема будет также вечной как и вопрос "Почему у сайтов конкурентов в тайтл запихано 120 символов, и они в ТОПе ?" Ответ прост:

Всё зависит о авторитетности ресурса, который находится в ТОП боле 5-8 лет. Если пройтись по интернет-магазинам (а конкретно по их стр. категорий), то там можно увидеть 5-6 вариантов реализации настройки страниц пагинаций, подкатегорий.

У всех по-разному: кто в robots.txt блочит, кто тегом noindex...

Я часто встречаю сайты, где в исходном коде следующая настройка, когда мы находимся в середине каталога (например на 5 странице):



1. Первый вариант:
<link href="https://myshop.com/category/?page=5" rel="canonical" />
<link href="https://myshop.com/category/?page=4" rel="prev" />
<link href="https://myshop.com/category/?page=6" rel="next" />

2. Второй вариант:
<link href="https://myshop.com/category/" rel="canonical" />
<link href="https://myshop.com/category/?page=4" rel="prev" />
<link href="https://myshop.com/category/?page=6" rel="next" />

3. Третий вариант:
<meta name="robots" content="noindex,follow" />
<link href="https://myshop.com/category/?page=4" rel="prev" />
<link href="https://myshop.com/category/?page=6" rel="next" />

При этом нет никаких запретов в robots.txt

Читающие мой коммент, вы какой способ считатет верным?

P.S. Я думаю, что всё зависит от структуры сайта, разделов и количества товаров. Там где 100500 гайек и болтов, то такие стр. пагинаций не желательно отдавать в индекс. В каждой подкатегории более 5000 товаров например.

А если всего товаров на мелком магазине (1000-10 000) то можно и не закрывать...

Neto:
.... ...
Вообще я уже года 2 не наблюдал нормального трафа на свои сайты из images.google.
Кто-то получает большой траф от туда?

К примеру взять магазин запчастей. Покупатель никогда в жизни не полезет в ГуглКартинки искать товары. А если веб-дизайнер который ищет фоны, то введя запрос "фоны абстракция" он сразу переходит на Картинки, и оттуда кликает посещение сайта, с понравившегося изображения.

Т.е. всё зависит от тематики и предназначения сайта. Не всем оно и нужно там быть в ГуглКартиках. Тоже самое и касается надобности тегов <image:image> в карте сайта Sitemap.xml - не для всех сайтов необходимость, а просто как для "галочки" поддержка рекомендации.

noorma, ясно! Значит потому и не используют <xhtml:link... /> многие.

Странная "позиция" Яндекса, почему бы вслед за поисковиком-конкурентом не пойти - взять да подружить свои алгоритмы и чекеры с тегами <xhtml:link> и <image> в файлах sitemap... Ведь сколько времени уже прошло.

noorma, а как там "дела" обстоят с Яндексом, воспринимает ли этот тэг? Иначе с <image:image> там проблемы, насколько я помню.

Dram, из рубрики "когда всё перерыл, но пропустил то что искал"

Благодарю за ответ-ссылку!

Но что самое забавное, мало кто практикует подобное из вебмастеров и сео-оптимизаторов. Многие мультиязычные сайты конкурентов не используют данный добавочный тэг. Понятно что гугл итак найдёт проиндексирует всё что надо для него от нас, но всё же... не попадались еще такие теги в sitemap

Жесть. У популярного движка Доски объявлений ( http://prntscr.com/i54z2o ) - Tamaranga видать... Там некий баг имеется, что-ли. Или это всё один и тот же владелец досок? )) Не проверял досконально...

Там всё помешано. Например из скрина что у ТС, та самая _ftant.me пиарит у себя в дескрипшене другой сайт - http://prntscr.com/i5502s

Тот другой сайт, аналогично пиарит следующий другой - http://prntscr.com/i550ue

Пишите разрабу CMS, в чём может быть косяк и некий заскок от этого у Гугл.

Немного, но есть сайты на JS и гугл их индексирует. Там нужна толковая техническая реализация подобных сайтов.

Рекомендую все тесты/трюки с JScript-блоками на сайте, проверять в консоли GWT, где "Посмотреть как Google-bot".

Получить исходный html-код страницы, и посмотреть, видны ли там "догружаемые еще" блоки (которые на JS)

Или вы про ссылки, которые приходят из JS с решёткой # и прочими недо-параметрами в урл?

Всего: 439