- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А каноникал и ноуиндекс одновременно можно использовать?
Можно. Всё равно каноникал не будет работать, если есть ноуиндекс.
А каноникал и ноуиндекс одновременно можно использовать?
я же выше написал уже, если страница не индексируемая - то на ней можете хоть хрен нарисовать огромный красным цветом и послать все пс туда же .
Просто тут были форумчане, которые говорили, что нужно использовать что-то одно.
Вот и интересно мнение остальных.
Просто тут были форумчане, которые говорили, что нужно использовать что-то одно.
Вот и интересно мнение остальных.
Какое тут может быть мнение, если это факт? Увидев ноуиндекс, робот страницу не индексирует. Поэтому каноникал можно хоть писать, хоть не писать - результат одинаковый.
Хотя Джон Мюллер считает, что не следует их употреблять одновременно, дабы не морочить роботу мозг:
Продолжаю делиться сео-опытом с сеошниками .. гы гы 🤣
В общем просто накинуть <meta name="robots" content="noindex, nofollow" /> на мусорные страницы это только полдела, нужно теперь дать увидеть роботу этот тег. Если в robots.txt у вас есть директива Disallow: *?, для запрета на сканирование мусорных страниц с GET-параметрами, то робот сканировать такую страницу не будет, а вот проиндексировать может, если на нее есть внешняя либо что скорее внутренняя ссылка. Поэтому в индексе может оказаться запись непосредственно о существовании самого URL, как констатация факта. Содержимое же страницы, и главное любые meta-теги, в индекс добавлено не будет, потому что сама страница не парсилась.
Получается чтобы дать роботу просканировать такую страницу, нужно снять запрет на это в robots.txt. Запрет был снят, но хер там был года. Последняя версия robots.txt от 17.07, когда был добавлен новый шаблон. Вчера 26.07 хотел проверить, обновился ли robots.txt, днем ранее я как раз удалил директиву, но данные от 17.07, до сих пор. Я по наивности думал что robots.txt сканируется роботом каждый день, как и sitemap. Решил закинуть URL с robots.txt на переиндексацию, оказалось он вообще не в индексе. Вот это поворот. Это при том что с какой-то же периодичностью он то все таки обновлялся, а сейчас чет приуныл.
Шоу маст гоу он ...
Робот таки проиндексировал новый шаблон robots.txt и стало возможным проверить пару догадок.
Вывод №1. Для того чтобы робот увидел <meta name="robots" content="noindex, nofollow" /> таки нужно удалять соответствующую директиву из robots.txt
Вывод №2. В обоих случаях робот продинамил canonical, по факту он стоял с этого урла. Судя по другим моим данным из серч консоль, робот видит canonical только если разрешено и сканирование и индексирование. При таких раскладах нужно выбирать между canonical и noindex. Вот это поворот! Ну тут очевидный выбор за noindex.
-----
Не знаю даже, есть понт задавать такой вопрос здесь ... ладно, может тут все таки есть seo-монстры 😁
Вопрос в общем такой - эти мусорные страницы, которые формируются GET-параметрами, уже попали в индекс ... как бустануть их массовое повторное индексирование? Сейчас, с лимитом в около 10 ссылок на день для переиндексации через серч-консоль это полная борода, у меня таких страниц почти 2К
Вопрос в общем такой - эти мусорные страницы, которые формируются GET-параметрами, уже попали в индекс ... как бустануть их массовое повторное индексирование? Сейчас, с лимитом в около 10 ссылок на день для переиндексации через серч-консоль это полная борода, у меня таких страниц почти 2К
Да хз, Гугл щас полумертвый в плане индексации/переиндексации. Я вот щас запиливаю вариант с гугл-апи, т.к. другие варианты уже испробованы. Если и это не поможет, тогда останется только камлать. Хехе.
P.S. Там ограничение кажись 200 урлов/сутки, в твоем случае, если это ВНЕЗАПНО сработает, всего-то 10 дней понадобится.Да хз, Гугл щас полумертвый в плане индексации/переиндексации. Я вот щас запиливаю вариант с гугл-апи, т.к. другие варианты уже испробованы. Если и это не поможет, тогда останется только камлать. Хехе.
P.S. Там ограничение кажись 200 урлов/сутки, в твоем случае, если это ВНЕЗАПНО сработает, всего-то 10 дней понадобится.100 отдельных урлов либо десять корневых улов было еще при Царе баяне .. гы гы .. года 3 назад, с тех пор резали лимиты 2 раза как минимум ... сейчас около 10 урлов, не больше 20 это точно
нужно выбирать между canonical и noindex. Вот это поворот!
Я выше процитировал Джона Мюллера. Так что никакого поворота, едем по прямой.
Я выше процитировал Джона Мюллера. Так что никакого поворота, едем по прямой.
ну вы прям капитан очевидность, я не знаю кто вам 48 лайков наставил, вы же по существу ничего ответить не можете ... а то что они там в Пало-Альто языком чешут, это вообще может ничего не значить, или будет актуально через 3 года. Я проверил на практике и поделился с людьми, мне не жалко, я ж не второсортный сеошник чтобы обламываться кому-то помочь