- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет.
В начале февраля яндекс в вебмастере пометил что несколько тысяч страниц на сайте имеют одинаковые заголовки и описания (страницы пагинации интернет магазина), я уникализировал их путем добавления приставки "страница 2" "страница 3" и тд
Прошел еще месяц-полтора, яндекс снизил количество таких страниц процентов на 10%. Потом вообще начал запихивать такие старницы в НКС. Я закрыл страницы пагинации тегом
<meta name="robots" content="noindex,follow"/>
И вот два месяца он выкидывает по 10-100 страниц в сутки из индекса с пометкой "запрещено тегом ноуиндекс" но при этом добавляя какие то страницы пагинации все равно в индекс.
При этом так же висит уведомление что несколько тысяч страниц имеют одинаковые заголовки и описания. Хотя они уже как несколько месяцев разные и вообще закрыты от индексации.
Вопрос: почему яндекс так медленно выкидывает страницы и сканирует сайт, и как это исправить?
Причем новые товары он добавляет в индекс в этот же или на следующий день после их размещения на сайте.
Вопрос: почему яндекс так медленно выкидывает страницы и сканирует сайт, и как это исправить?
Вопрос: почему яндекс так медленно выкидывает страницы
Потому что у Яндекса свои приоритеты в индексации и инструкции Disallow: /адрес страницы, а также noindex, nofollow всего лишь рекомендация.
Для оптимизации индексации нужно:
а) соблюдать корректные данные в <lastmod> в xml карте сайте
б) вручную заниматься вопросами переиндексации сайта (добавлять страницы на переобход поисковым роботом)
И вот два месяца он выкидывает по 10-100 страниц в сутки из индекса с пометкой "запрещено тегом ноуиндекс" но при этом добавляя какие то страницы пагинации все равно в индекс.
Именно так, потому что приоритет добавления новых страниц выше, чем переобход старых менее приоритетных.
При этом так же висит уведомление что несколько тысяч страниц имеют одинаковые заголовки и описания.
Пока не обновятся данные, уведомление так и будет висеть.
Хотя они уже как несколько месяцев разные и вообще закрыты от индексации.
Они могут хоть пол года быть закрыты и так до конца и не обновлены. Как я написал выше, нужно самостоятельно стимулировать этот процесс.
noindex, nofollow всего лишь рекомендация.
это не рекоменда, это правило
в случае ТС просто используется старая база - он может посмотреть дату рядом с залетевшей страницей и увидит там старую
б) вручную заниматься вопросами переиндексации сайта (добавлять страницы на переобход поисковым роботом)
ты же знаешь что когда тысячи страниц никто вручную делать не будет
это не рекоменда, это правило
Это инструкция, которая определённое время может игнорироваться. Недавний эксперимент - полный спрос индексации Disallow: / - три недели сайт видел в индексе, более того, прибавлял в индексе те страницы, которые были дополнительно указаны noindex, nofollow.
И только после принудительного переобхода страницы начали исключаться из индекса.
ты же знаешь что когда тысячи страниц никто вручную делать не будет
Я - делаю, и многие мои коллеги делают. Определяют порядок приоритетности и делают.
Кол-во - это не причина не делать. Кол-во - это условиe для определения порядка обработки.
Это инструкция, которая определённое время может игнорироваться. Недавний эксперимент - полный спрос индексации Disallow: / - три недели сайт видел в индексе, более того, прибавлял в индексе те страницы, которые были дополнительно указаны noindex, nofollow.
И только после принудительного переобхода страницы начали исключаться из индекса.
она не может игнорироватся при посещении роботом.
Я тоже так считал, но вот недавний пример.
В 20-х числах сайту полностью была запрещена индексация на уровне robots и в мета постранично, а межу тем 31-го числа,
и я этому тоже очень сильно удивился. Поэтому теория - теорией, а практика вносит свои нюансы и коррективы.
А вот при закрытии для сканирования - то робот просто может не доходить туда ))
Здесь - да.
В 20-х числах сайту полностью была запрещена индексация на уровне robots и в мета постранично, а межу тем 31-го числа,
В мае и июне Яндекс часто откатывал базу. Был замечен вылет уже закрепившихся страниц и возвращение в ТОП уже удаленных и забытых.
Я тоже так считал, но вот недавний пример.
В 20-х числах сайту полностью была запрещена индексация на уровне robots и в мета постранично, а межу тем 31-го числа,
запрещена индексация на уровне robots и в мета постранично
не индексация а сканировка , стандартная ошибка сео . Запрещаем сканить в роботсе и ставим мета ноиндекс который не видят пс)))) и удивляемся а чего же оно не работает ))) если ставишь но индекс - то открывай в роботсе, я удивлен что ты этого не знал, это основы
Валишь всё в одну кучу и индексирование, и следование по ссылкам, речь не об этом.
Еще раз - сайт был полностью запрещен, о чём Вебмастер вывел соответствующее уведомление. Это был сброс индексации глобальный. Но при этом некоторое время в индекс ещё залетали страницы. Почему залетали? Потому что инструкция Вебмастера - это одно, а порядок обработки накопленных данных Яндексом - другое.
там есть колонка третья - "последнее посещение" - вот ее смотри
Там могут быть данные полугодовой давности и поэтому сколько на них не смотри, свежее от этого они не станут. Однако замечание верное, потому что первичен и более приоритетен сигнал который есть у поисковика, поэтому на текущий Disallow или noindex, nofollow ему пофиг, до момента принудительного переобхода.
И дело тут в порядке следований инструкций, поэтому у TC и тянется всё это месяцами, а указанные noindex по факту является не более, чем рекомендацией в общей череде обработки данных.
Итого: принудительный переобход смещает фокус поисковика для обработки данных, именно поэтому данную процедуру нужно выполнять вручную, потому как ноуиндексы - это не более, чем доп. атрибут страницы, потому как фактическое состояние - это одно, а обработка старых данных, которая исполняется после ноуиндекса - другое.
Валишь всё в одну кучу и индексирование, и следование по ссылкам, речь не об этом.
Еще раз - сайт был полностью запрещен, о чём Вебмастер вывел соответствующее уведомление. Это был сброс индексации глобальный. Но при этом некоторое время в индекс ещё залетали страницы. Почему залетали? Потому что инструкция Вебмастера - это одно, а порядок обработки накопленных данных Яндексом - другое.
Там могут быть данные полугодовой давности и поэтому сколько на них не смотри, свежее от этого они не станут. Однако замечание верное, потому что первичен и более приоритетен сигнал который есть у поисковика, поэтому на текущий Disallow или noindex, nofollow ему пофиг, до момента принудительного переобхода.
И дело тут в порядке следований инструкций, поэтому у TC и тянется всё это месяцами, а указанные noindex по факту является не более, чем рекомендацией в общей череде обработки данных.
Итого: принудительный переобход смещает фокус поисковика для обработки данных, именно поэтому данную процедуру нужно выполнять вручную, потому как ноуиндексы - это не более, чем доп. атрибут страницы.
Тебе Вован прально всё выше распедалил, а ты как уж на сковороде опять начинаешь свой факап замыливать тысячей бесполезных слов.