- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброе время суток. Помогите пжл разобраться, в чем может быть проблема, суть: интернет магазин в нем есть стр. пагинации, закрыл их через мета тэг noindex но оставил чтобы робот мог переходить по товарам follow, проверю через оператор site: адрес первой стр. в гугле, результат: ( скрин: http://ibb.co/k5M7TH)
добавил + к выше перечисленому еще каноникал на 1 стр. все равно результат тот же, вариант закрыть вообще в robots.txt, но тогда робот не будет переходить по товарам на 2 и т.д страницах, помогите разобраться, почему гугл индексирует страницу, если стоит тэг noindex?
почему гугл индексирует страницу, если стоит тэг noindex?
"Внимание! Поисковый робот не обнаружит атрибут noindex, если страница заблокирована в файле robots.txt. Такая страница может быть представлена в результатах поиска (например, если на нее есть ссылка на другой странице)." Справка Гугла.
Потому что на тэг noindex Гуглу наплевать часто. Про пагинацию тут https://support.google.com/webmasters/answer/1663744?hl=ru
просто по мимо тэга noindex я еще добавил canonical на 1 стр, и все равно результат тот же.
Гугл может не перейдет ПО ЭТОЙ ссылке, но может найти страницу в любом другом месте. Даже на другом сайте. И проиндексировать.
Что-то не помню особо надежных вариантов кроме robots.txt
просто по мимо тэга noindex я еще добавил canonical на 1 стр, и все равно результат тот же.
Нельзя смешивать тэг canonical вместе с noindex, это неверная настройка и гугл просто игнорирует все эти указания.
И потом, follow или noffolow после команды noindex... с этого года не имеет значения и важности. Гуглу самое главное что уже стоит первой запрещающая директрива noindex в мета-тэге.
Нельзя смешивать тэг canonical вместе с noindex, это неверная настройка и гугл просто игнорирует все эти указания.
И потом, follow или noffolow после команды noindex... с этого года не имеет значения и важности. Гуглу самое главное что уже стоит первой запрещающая директрива noindex в мета-тэге.
Вообщем понятно, проще закрыть robots.txt и не морочить голову. Просто думал, может вес с пагинаций будет переходить на главную, через canonical.
Из справки google/
Инструкции robots.txt носят рекомендательный характер
Настройки файла robots.txt являются указаниями, а не прямыми командами.
настройте rel=prev и rel=next, для указания страниц пагинации
И как показывает практика, иногда в поиск выходят страницы и даже сайты закрытые в роботс
И как показывает практика, иногда в поиск выходят страницы и даже сайты закрытые в роботс
еще такого не встречал.
еще такого не встречал.
Первое, что нагуглил. Бывает, допустим, когда какую-то страницу внезапно закрыли в роботс, а ссылки на нее есть.
еще такого не встречал.
https://www.google.ru/search?q=liveinternet+поисковых+систем
Disallow: /stat/
dmitriy_xom, смотрите какая у вас ситуация... Изначально в роботс.тхт у вас было закрыто командой Disallow: /*offset=* и *&offset= (это и сейчас есть). Но сама страница отдаёт гуглу команду 200 ОК - доступно, она (точнее сам урл) есть "физически". Но тут же он обнаруживает что в роботсе не надо её содержимое помещать в индекс поисковых баз. Об этом и пишет что "Информация не доступна..." Раньше вообще писалось что ",..закрыто в файле роботс"
Сейчас вы поставили тэг "noindex", но гуглу в приоритете команда из роботс.тхт вообще ничего там не проверять и не смотреть. Поэтому он и не видит вашу новую настройку в коде. Нужно убрать Disallow: /*offset=*, чтобы получить доступ к этим страницам и там в коде боту увидеть noindex...
Вот тогда они все и полезут из поисковой выдачи прочь.
Какая у вас CMS? Что-то я так и не понял по исходному коду. Там надо внимательно проверить, что еще с этим *offset= генерируется, чтобы не попало в индекс.