- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
богоносец #:
мета-ноиндекс бот прочитает неким телепатическим образом, не запрашивая страницу с сервака (потратив на это неизвестный лимит на http обращения к сайту). На сказку похоже.
Почему не запрашивая? Ведь это пагинация и ссылки на страницы есть на основном разделе
Страницы имеющие только каноникал, все-таки попадают в индекс. Это не обезопасит от пагинации в индексе
Куча страниц пагинации, залетающие в индекс, потом вылетающие как мпк. В этом вижу основную опасность.
Ну т.е. каперайторы уверяют, что мета-ноиндекс бот прочитает неким телепатическим образом, не запрашивая страницу с сервака (потратив на это неизвестный лимит на http обращения к сайту). На сказку похоже.
Не сканирует и не индексирует пользовательскую часть документа. Служебные области поисковик в любом случае посмотрит (Гугл даже явный Disallow может проигнорировать).
Я надеюсь в индексе Гугла каперайторы видели пустые по содержанию страницы, которые вроде как запрещены к индексации, но почему-то в индексе всё же оказываются (на некоторое время).
Почитайте назначение каноникала, он не для исключения из индексации, да и лишь для одинаковых страниц...
И что особо важно добавить - для неполных дублей.
Не сканирует и не индексирует пользовательскую часть документа. Служебные области поисковик в любом случае посмотрит
Предлагаю издать «1001 ночь seo-сказок».
А что такое "пользовательская часть документа"? А как её можно 'не сканировать', если в случае с метаноиндекс - документ придётся запросить с сервака (весь. Расходуя на это лимит обращений)...
Куча страниц пагинации, залетающие в индекс, потом вылетающие как мпк. В этом вижу основную опасность
Но они же не дубли... чтобы их каноникалом исключать из показов выдаче.
Почему бы не воспользоваться robots.txt для исключения их сканирования? (только не надо щас громких воспоминаний, что 'это не запрет' ... если в выдаче и покажет, то не все)
Почему бы не воспользоваться robots.txt для исключения их сканирования? (только не надо щас громких воспоминаний, что 'это не запрет' ... если в выдаче и покажет, то не все)
С запретом в роботс куча карточек будет не видна поисковику
С запретом в роботс куча карточек будет не видна поисковику
А с ноуиндекс, фоллоу, каноникал... карточки будут видны?
Может перелинковку как-то организовать / xml карту сайта...
А с ноуиндекс, фоллоу, каноникал... карточки будут видны?
Может перелинковку как-то организовать / xml карту сайта...
С ноиндекс фоллоу видны.
Одно другому не мешает и усиливает.
Предлагаю издать «1001 ночь seo-сказок».
А что такое "пользовательская часть документа"? А как её можно 'не сканировать', если в случае с метаноиндекс - документ придётся запросить с сервака (весь. Расходуя на это лимит обращений)...
Предлагаю не хамить и не выпендриваться, а прочитать про зоны служебной информаций и пользовательской. Про коды ответов сервера, мета информацию, зоны <head> и <body>.
Также желательно не выкручивать сказанное и не вводить читающих в заблуждение. Есть общий технический регламент, когда поисковая система обращается по указанному адресу и скачивает документ (вне зависимости какие инструкции стоят в meta), а есть режим индексации определённый пользовательскими настройками: в robots, в мета, в коде ответа сервера и т.д.
Так что не наводите тень на плетень.