- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Решил освежить в памяти.
Буду краток.
1.Гугл перестал поддерживать meta robots noindex follow.
2. Если закрыть страницы пагинации в файле robots.txt (кстати, стал замечать, что информационники-многостраничники именно так и делают), то станет невозможным сканирование и индексирование страниц пагинации. Однако, в выдачу Гугла они всё равно попадают, как недоступные.
3. Если канонизировать страницы листинга "сами на себя", то они будут индексироваться, как и все остальные.
4. Многие специалисты, включая Сергея Людкевича, советуют по-прежнему "склеивать" страницы пагинации с первой в разделе.
Но и в этом случае Яндекс будет игнорировать каноникал, поскольку контент на страницах листинга всегда отличается.
Для информационного ресурса (заголовок статьи, анонс, ссылка "читать полностью") с классической пагинацией WordPress - "склеивать" с первой/блокировать в robots.txt/блокировать метатегом noindex nofollow/не указывать каноникал/ставить его "сам на себя - какое выбрать решение?
https://www.ludkiewicz.ru/2019/08/canonical.html
Для информационного ресурса (заголовок статьи, анонс, ссылка "читать полностью") с классической пагинацией WordPress - "склеивать" с первой/блокировать в robots.txt/блокировать метатегом noindex nofollow/не указывать каноникал/ставить его "сам на себя - какое выбрать решение?
Не блокировать, не указывать каноникал, не склеивать
Индексировать полностью пагинацию, без дублей Титл
Найти бурж. ранние статьи как формируется PR, как сделать max PR за счет внутренней структуры сайта
PS
- PR в Гугл давно нет, но учет структуры сайта никуда не делся
- Яндекс давно игнорирует ( не использует) каноникал
Решил освежить в памяти.
Буду краток.
1.Гугл перестал поддерживать meta robots noindex follow.
2. Если закрыть страницы пагинации в файле robots.txt (кстати, стал замечать, что информационники-многостраничники именно так и делают), то станет невозможным сканирование и индексирование страниц пагинации. Однако, в выдачу Гугла они всё равно попадают, как недоступные.
3. Если канонизировать страницы листинга "сами на себя", то они будут индексироваться, как и все остальные.
4. Многие специалисты, включая Сергея Людкевича, советуют по-прежнему "склеивать" страницы пагинации с первой в разделе.
Но и в этом случае Яндекс будет игнорировать каноникал, поскольку контент на страницах листинга всегда отличается.
Для информационного ресурса (заголовок статьи, анонс, ссылка "читать полностью") с классической пагинацией WordPress - "склеивать" с первой/блокировать в robots.txt/блокировать метатегом noindex nofollow/не указывать каноникал/ставить его "сам на себя - какое выбрать решение?
https://www.ludkiewicz.ru/2019/08/canonical.html
У меня инфармационники на Вордпресс. Страницы пагинации закрыты в роботс командой Disallow: */page/. В Вордпресс page фигурирует только в пагинации, начиная со второй страницы. Иными словами первая страница индексируется, остальные нет. Это для Яндекса. Для Гугла у меня вообще ничего нет, как и для остальных юзерагентов.
1.Гугл перестал поддерживать meta robots noindex follow.
Всё он поддерживает, убрали только follow за ненадобностью, т.к. это тоже самое, что указать единственную директиву allow: / в robots.txt.
Т.е., теперь
это тоже самое, что и
https://searchengines.guru/ru/news/2052145
Как и прежде, единого мнения нет.
У меня инфармационники на Вордпресс. Страницы пагинации закрыты в роботс командой Disallow: */page/.
Скажите, каким образом робот сканирует и индексирует важные страницы, если Вы запретили сканировать и индексировать страницы пагинации?
Какими путями он добирается до всех без исключения статей?
Вы используете замысловатую перелинковку? На сайте есть карта сайта html?