- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
postavkin,
я знаю одно - надо зарядить сто товаров на первую - остальное в пагинацию , повесить на видное место фильтр и сверху несколько популярных категорий . Это работает , у всех , на этом точка
спасибо посмеялся, это делается проще простого и то что у розетки и вайлдберрис нету денег - вообще ржака
Знаю сеошника с конторы, которая выделяет > 15млн в год на сео. И чего. Вы удивитесь. По воле случая удалось снять фильтр с сайта. Я к тому что количество денег не решает. У них куча проектов, я про крутые бизнесы, работает и ладно, они не заостряют внимание на одном, у них портфель широкий.
---------- Добавлено 12.12.2019 в 00:38 ----------
postavkin,
я знаю одно - надо зарядить сто товаров на первую - остальное в пагинацию , повесить на видное место фильтр и сверху несколько популярных категорий . Это работает , у всех , на этом точка
Сложно не согласиться!
---------- Добавлено 12.12.2019 в 00:43 ----------
P.S. практически на любом топовом сайте можно найти грубейшие ошибки, не задумывался почему?
попробуй подумать на эту тему
Хоть и не мне, но я попробую догадаться.
По той же причине, что я писал выше - там бабло в проекты вбухивают, а за качество не парятся. Работает и ладно. У них несколько видов бизнесов. Короче, все на расслабоне. Бабки текут рекой, и ладно )
Слушай, вот ответь мне на простой вопрос. Допустим, учитывается. Допустим, не учитывается. Ты то на что повлияешь?
Ни на что. Просто у нас тут уже непонятно, кто на ком стоял. Мой вопрос появлся от сюда
Увы увы - смысла в каноне нема после ноиндекса)))
При том, что речь о комбинации
<meta name="yandex" content="noindex, follow" />
<link rel="canonical" href="http://site.com/osnovnoy-url"/>
Ноуиндекс только для яндекс, для гугла после него в каноникал очевидно смысл есть. И если дали ТЗ убрать пагинацию (из яндекса, в гугле ее и так нет), то каноникал не убирают, не потому что человекоминуту пожалели...
Ну а походу надеялся узнать, а не может ли он работать и для Яндекса...
При том, что речь о комбинации
<meta name="yandex" content="noindex, follow" />
<link rel="canonical" href="http://site.com/osnovnoy-url"/>
тут ни для гугла, ни для яндекса смысла нет
по порядку,
<meta name="yandex" content="noindex, follow" /> такая конструкция для яндекса имела бы смысл только в одном случае - необходимость обойти url которые могут встречаться на данной странице, но саму страницу не индексировать, соответственно не учитывать пф и ссылочный вес
подобная задача решается намного проще - сайтмап и закрытие в роботсе, при этом вы существенно экономите на квоте для сканирования
каноникл вообще бессмысленный тег для яндекса, он и раньше работал с кучей оговорок о доступности канонической странице и нахождении её в индексе, а теперь вообще игнорируется при разном контенте
по первой инструкции для гугла всё ровно также + по заявлениям самого гугла, конструкция noindex, follow считается noindex, nofollow https://www.seroundtable.com/google-long-term-noindex-follow-24990.html
каноникл работает для гугла тоже с кучей оговорок о доступности канонической страницы, так ещё добавляется и эффективность в поиске и наличие внешних ссылок, последнее кстати легко может перевесить ;)
P.S. все эти танцы с бубнами исполняются в основном для закрытия косяков в архитектуре самого сайта и/или оптимизации процесса сканирования сайта поисковиками
так зачем решать проблему такими кривыми методами?
Мы не рассматриваем вариант ноуиндекс для гугла, и на сколько каноникал для него рекомендательный вообще, для разных ситуациях. Вопрос с пагинацией он решает, на нужную страницу консолидирует… для гугла это лучшее из того что есть.
Давайте что бы опять не запутались… ищем лучшее из того что есть для яндекса, и конкретно для пагинации. Вариант роботс текст + сайтмап, оставляет все те же вопросы и добавляет новых:
1. Запрет через роботс (в отличие от мета) не влияет на квоты сканирования?
2. Не влияет на консолидирование?
3. Для яндекса мета ноуиндекс, фолоу, как и дла гугла со временем становится ноуфолоу?
4. На сколько сайтмап влияет на индексацию и эти самые квоты?
И влияет ли вообще на что-то… ни разу не видел что бы установка сайтмап хоть как-то улучшала процент индексации. И он и так стоит у всех, или почти у всех, поэтому считаем что он есть и при мета ноиндекс, фолоу.
По-моему "бубнов" и "танцев" только прибавляется...
<meta name="yandex" content="noindex, follow" /> - разрешаем Яндексу переходить по ссылкам, а значит и индексировать товары на этой странице. Запрещаем ее к индексации. Тег на Гугл не распространяется.
<link rel="canonical" href="http://site.com/osnovnoy-url"/> - закрываем странички пагинации от индексации в гугле, каноникал там работает очень хорошо.
Если необходимо запретить страницы к пагинации в обоих ПС, то этот вариант самый надежный. Что в нем не устраивает?
То что писали выше - запрет через роботс, вариант сомнительный, ибо Гугл сам говорил что если есть ссылки с других сайтов на страницы которые закрыты в роботсе, то они могут попасть в индекс все равно.
Это правила на страницах. Т.е. начнут работать как только, так сразу после переиндексации. На сайтах в 50-100-200...к через робот текст было бы веселее. Как пример, что может не устраивать)
Так, друзья, все прочёл, информации много и она противоречива.
Спрошу так, как на практике реализовать ноиндекс-Фоллоу Или рел-каноникал на WP для пагинаций. Куда там залезть и что вписать, мне это узнать и необходимо)
Вывод сделал такой:
Крупные сайты юзают и то и другое,
Для гугла рекомендуется работать с канониклом,
Для Яндекса рекомендуется после обновы работать с ноиндексом
Если у вас небольшой сайт, до 1000 стр например. Нормальные контентные страницы, и скажем 5-10% пагинация, и в индексе 98% +\-. То заморачиваться вообще не за чем, достаточно каноникал для обеих ПС.
Тут о больших, за частую среднепаршивых ИМ. На которых, скажем, из 100 к, гугл берет 15, яндекс 45 к (обычная ситуация). При этом, 15% стр на сайте пагинация. Т.е. примерно треть от того что берет яндекс и сопоставимо с тем что считает возможным взять с сайта гугл. В таком случае смысл не пускать пагинацию в индекс наверное есть.
каноникл работает для гугла тоже с кучей оговорок о доступности канонической страницы
работает как часы, никаких проблем
---------- Добавлено 12.12.2019 в 12:31 ----------
<meta name="yandex" content="noindex, follow" /> - разрешаем Яндексу переходить по ссылкам, а значит и индексировать товары на этой странице. Запрещаем ее к индексации. Тег на Гугл не распространяется.
<link rel="canonical" href="http://site.com/osnovnoy-url"/> - закрываем странички пагинации от индексации в гугле, каноникал там работает очень хорошо.
Если необходимо запретить страницы к пагинации в обоих ПС, то этот вариант самый надежный. Что в нем не устраивает?
То что писали выше - запрет через роботс, вариант сомнительный, ибо Гугл сам говорил что если есть ссылки с других сайтов на страницы которые закрыты в роботсе, то они могут попасть в индекс все равно.
как всегда в точку