- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день. Очень интересует вопрос, почему некоторые сайты (!Занимающие лидирующие места!) ставят следующий тег
<meta name="robots" content="noindex,follow,noodp,noydir" />
на страницах со второй до последней (т.е на первой его нет, а на 2.3.4.5 и т.д он есть).
Для чего блокируют индексацию этих страниц? Можете объяснить?
Для чего блокируют индексацию этих страниц? Можете объяснить?
А зачем они в индексе вы не скажете?
Может на них есть уникальный контент полезный для ПС?
А зачем они в индексе вы не скажете?
Может на них есть уникальный контент полезный для ПС?
Главное тогда чтоб все страницы успели попасть в индекс через первую.
Значит стоит закрыть.
А как посоветуете закрыть, через роботс Disallow: */page/* будет ли тот же эффект как и от тега в первом посте?
ifx, Закрывать как вам удобнее, разницы нет. Главное что бы они были закрыты.
А как посоветуете закрыть, через роботс Disallow: */page/* будет ли тот же эффект как и от тега в первом посте?
я где-то читал что через тег robots более правильно, ну а вообще делайте как нравится, обычно всем проще резе robots.txt
Главное тогда чтоб все страницы успели попасть в индекс через первую.
вы же понимаете, что если страницы попали в индекс и потом были закрыты от индексации, то они из индекса выпадают
---------- Добавлено 23.08.2016 в 04:08 ----------
на страницах со второй до последней (т.е на первой его нет, а на 2.3.4.5 и т.д он есть).
имеется в виду что страница категории товаров разбита на несколько и первая индексируется, а "нечеткие дубли" (страницы пагинации) закрыты от индексации, так?
имеется в виду что страница категории товаров разбита на несколько и первая индексируется, а "нечеткие дубли" (страницы пагинации) закрыты от индексации, так?
Сайт информационный и да страницы пагинации закрыты
на страницах со второй до последней (т.е на первой его нет, а на 2.3.4.5 и т.д он есть).
Для чего блокируют индексацию этих страниц? Можете объяснить?
Речь идёт про страницы пагинации? Если да, то закрывают для того, чтобы не плодить частичные дубли. В то же время на 2-й и последующих страницах есть ссылки на карточки товара - их нужно проиндексировать.
- Если страницы пагинации закрыты в роботс.ткст, то пойдет ли по ним робот и сможет проиндексировать карточки? Есть ли возможность их вообще закрыть, не закрыв ничего лишнего, в плане образования урла?
- Если страницы пагинации закрывать после индексации карточек, то что потом делать при массовом добавлении новых карточек?
Есть ли возможность их вообще закрыть, не закрыв ничего лишнего, в плане образования урла?
использовать символ доллара
или - также запрещает индексировать страницу /konfety/shokolad - запрещает индексировать только страницу /konfety- Если страницы пагинации закрывать после индексации карточек, то что потом делать при массовом добавлении новых карточек?
использовать символ доллара) либо <meta name="robots" content="noindex, follow"/> на страницах пагинации, робот тогда страницу пагинации не будет индексировать, а на карточки товаров или другие ссылки которые есть на странице перейдет и проиндексирует
использовать символ доллара) либо <meta name="robots" content="noindex, follow"/> на страницах пагинации, робот тогда страницу пагинации не будет индексировать, а на карточки товаров или другие ссылки которые есть на странице перейдет и проиндексирует
каноникал же
каноникал же
я бы и каноникал и закрытие ненужных страниц от индексации использовал, так вернее))
поисковики бывает на данные теги "забивают", надо смотреть что в индекс попадает.
была фишка этой зимой - заметил что по https копия чужого сайта образовалась (из-за косячного хостера), прописал в каноникалах что везде должно быть http без s и все равно левая копия из индекса не выпала. так что после каждого апа желательно проверять, что новое появилось в индексе