- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Лучше сделать так и ничего не выдумывать <meta name="robots" content="noindex, follow">
Так я и не выдумываю.
Успешные конкуренты закрывают пагинацию в robots.txt.
Если говорить предельно открыто, то в течение примерно 5 лет я тоже придерживался этого правила.
Проблем с индексацией не было.
Затем 4 года закрывал страницы мета-тегом <meta name="robots" content="noindex, follow">.
На такие страницы робот Гугла почти не заходил.
Проблем с индексацией не было.
Я тоже не вижу явных причин для ухудшения ранжирования, если робот будет иметь для переобхода дополнительный круг из числа бесполезных для индекса страниц перечня.
Я тоже не вижу явных причин для ухудшения ранжирования, если робот будет иметь для переобхода дополнительный круг из числа бесполезных для индекса страниц перечня.
Проблем с индексацией не было, когда страницы листинга были закрыты в файле robots.txt.
Буду наблюдать, анализировать, делать выводы.
Закрытые в роботс индексирует гугл хорошо, особенно когда есть внутренние ссылки.
Одна страница пагинации уже попала в поиск Гугла, несмотря на блокировку в файле robots.txt.
В Сёрч Консоли появилось предупреждение.
Я удивляюсь только одному.
Страница закрыта от сканирования, но Гугл всё равно её индексирует, то есть добавляет в выдачу документ с заблокированным содержимым.
Посмотрю, окажутся ли сайты "в соплях".
Повторюсь, что в течение 5 лет никаких проблем с индексированием и сканированием не было. В файле robots.txt листинг был закрыт правилом Disallow: /*page*
Буду смотреть, сколько заблокированных страниц пагинации добавит в индекс полоумный Гугл.
Техподдержка Яндекса напротив рекомендует использовать robots.txt, а не мета-тег noindex,follow для закрытия от индексации маловостребованных (малоценных) страниц листинга.
Гугл потихоньку добавляет страницы пагинации в индекс, с пометкой "Страница недоступна по причине блокировки в файле robots.txt".
Решил закрыть страницы листинга мета-тегом robots noindex,nofollow.
Из файла robots.txt запреты удалил.
Буду наблюдать, не выпадут ли из органики важные страницы и насколько пострадает переобход важных страниц.
Я посмотрел с десяток конкурентов в нише. Странно. Почему листинг закрывают в роботсе? Разве для Гугла это не ошибка?
Отвечаю сам себе: для Гугла это является ошибкой.
Позвольте небольшое уточнение!
Конструкция вида: <meta name= "robots" content= "noindex" />
Строго запретит роботам Яндекса и Гугла индексировать страницу, при этом роботы будут переходить и индексировать ссылки, расположенные на этой странице?
Так ли это?
Так я и не выдумываю.
Успешные конкуренты закрывают пагинацию в robots.txt.
Можно 1 пример такого успешного конкурента?
Я по своим прошелся, наоборот все раскрыли.
Можно 1 пример такого успешного конкурента?
Я по своим прошелся, наоборот все раскрыли.
А как быть с дублями?
Часть текста (анонс) будет индексироваться и на пагинации, и в самой статье...
Можно 1 пример такого успешного конкурента?
https://psy-magic.org/
https://tayniymir.com