- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как работает схема DBS на разных маркетплейсах
Кому подойдет, условия работы, стоимость
Сервис Кактус

Яндекс открывает офис в Стамбуле
Сотрудники будут заниматься развитием сервисов на местном рынке
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет, коллеги!
Разъясните пожалуйста в чем смысл вот такого тега
почему недостаточно использовать только (если я хочу лишь закрыть дубль страницы)
Есть ли существенная разница при ранжировании ПС если указано не индексировать страницу (текст на странице, который является частичным дублем), но проходить по ссылкам (которые ведут на мой же сайт, ссылки меню, ссылки в подвале и т.д.) и как лучше использовать этот тег?
Спасибо.
Привет, коллеги!
Разъясните пожалуйста в чем смысл вот такого тега
почему недостаточно использовать только (если я хочу лишь закрыть дубль страницы)
Ну, лично я смысла в nofollow здесь не вижу.
Более того, ежели я буду закрывать всю страницу по причине, скажем, того, что она чего-то там дублирует - пропишу явным образом "noindex, follow" :p.
Привет, коллеги!
Разъясните пожалуйста в чем смысл вот такого тега
почему недостаточно использовать только (если я хочу лишь закрыть дубль страницы)
Есть ли существенная разница при ранжировании ПС если указано не индексировать страницу (текст на странице, который является частичным дублем), но проходить по ссылкам (которые ведут на мой же сайт, ссылки меню, ссылки в подвале и т.д.) и как лучше использовать этот тег?
Спасибо.
Все четко написано и по делу https://yandex.ru/support/webmaster/controlling-robot/html.xml Один тег запрещает индексировать текст, второй ссылки, использовать один тег или два это зависит от того как вы будите закрывать дубли, если вы будите закрывать саму ссылку на страницу дубля - тогда достаточно одного тега, а если вы будите закрывать непосредственно саму страницу дубль от индексации - тогда два тега, есть еще robots.txt
Все четко написано и по делу https://yandex.ru/support/webmaster/controlling-robot/html.xml Один тег запрещает индексировать текст, второй ссылки, использовать один тег или два это зависит от того как вы будите закрывать дубли, если вы будите закрывать саму ссылку на страницу дубля - тогда достаточно одного тега, а если вы будите закрывать непосредственно саму страницу дубль от индексации - тогда два тега, есть еще robots.txt
тег
говорит роботу, что текст на этой странице индексировать не надо, а тег говорит о том чтобы он не переходил по ссылкам на этой странице.К примеру, у меня есть страница на которой частично дублируется контент, но ссылки в шапке и в нижнем меню ведут куда следует, мне в таком случае как прописывать тег?
Ну и не совсем понятно, как он (поисковый бот) может переходить по ссылкам, если ему сказано, что делать на этой странице нечего.
К примеру, у меня есть страница на которой частично дублируется контент, но ссылки в шапке и в нижнем меню ведут куда следует, мне в таком случае как прописывать тег?
Я не вижу причин запрещать в этом случае роботу ходить по этим ссылкам.
Я не вижу причин запрещать в этом случае роботу ходить по этим ссылкам.
я с вами согласен, но регулярно вижу в ТОПе сайты которые закрывают разделы именно вот так
Может в этом есть какая то правда и мы с вами ничерта не понимаем?
еще вопрос, а не мешает запрет страниц в файле robots метатегам страницы?
От структуры, и количества потенциальных дублей все.
К примеру там где фильтры способны генерировать 100500 стр из одной, или календари с таким же свойством - можно написать и ноуфолоу.
Зачем запускать ботов в эти генераторы бесконечностей, пусть индексируют то что нужно...
В стандартных разделах/категориях достаточно ноуиндекс.
Хотя правильнее и проще это решать через rel="canonical"
еще вопрос, а не мешает запрет страниц в файле robots метатегам страницы?
Если закрыли через метатеги, то в роботс лучше убрать. Оно не то что б важно, но позволит Гуглу убрать из индекса вот такое
Если закрыли через метатеги, то в роботс лучше убрать. Оно не то что б важно, но позволит Гуглу убрать из индекса вот такое
Понял, спасибо, а как влияет подобный контент (закрытый в robots, но болтающийся в индексе)?
Ну а зачем что бы "болталось"?)
Не знаю как оно влияет. В теории Гугл не должен воспринимать их как мусорные, это их "эксклюзивный" баг, видимо технический. А что там на самом деле...
С тех пор как эта ерунда появилась, как-то часто стали напоминать, что запрет в роботс лишь рекомендация, и советовать метатеги и каноникал.
Может как раз потому, что пофиксить не могут, а прямо признать - как-то неудобно)))
спасибо!
Значит буду юзать мета теги