- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
вот применительно к этой проблеме я и дал свою рекомендацию. Она касается вопросов приоритетного индексирования. Не верите мне, почитайте практику использования данных настроек и станет понятно.
К вашей рекомендации, я вам задал конкретный вопрос, с кокрентным примером вашего сайта
Какой last-modified отдаст ваш сайт на страницу /audit-sajtov?utm=avito ? Вы не ответили.
Именно такие пачки, вебмастер и индексирует, независимо от того, что они запрещены в правилами robots.txt
Отвечу за вас - ваша рекомендация не работает, потому что last-modified будет тот же что и для страницы /audit-sajtov
Кому-нибудь внятно и по делу Платон ответил что происходит?
Уже 3-тий день подряд на одном новом сайте, каждый день то страницы добавляет в поиск то некоторые потом выкидывает, а потом снова добавляет.
Кому-нибудь внятно и по делу Платон ответил что происходит?
Уже 3-тий день подряд на одном новом сайте, каждый день то страницы добавляет в поиск то некоторые потом выкидывает, а потом снова добавляет.
У меня так было на коммерческом проекте, пока не поправил контент на них.
У меня так было на коммерческом проекте, пока не поправил контент на них.
У меня информационный сайт. И объективно, выкидывает хорошие страницы со статьями. Уник, со списками, заголовками, фото и т.д.
Думайте дальше, написал черным по белому - Яндекс игнорит robots.txt, если есть связка метрики и вебмастера.
Такого быть не должно и здесь нужен правильный порядок действий.
Файл robots.txt определяет базовые правила индексации и ни Метрика, ни Вебмастер переопределить их не могут.
Если Яндекс игнорируют правила robots.txt, значит нужно писать в Яндекс и разбираться. Может быть вы неправильно составили инструкции, а может быть и проблема на их стороне - здесь надо конкретно разбираться. Допускаю также, что временно у Яндекс могут быть проблемы и косяки с учётом правил, значит нужно обратить внимание техподдержки на этот счёт и быть с ними в диалоге, ждать решения данного вопроса. Остальные рекомендации с Last-modified здесь действительно уже неактуальны.
Какой last-modified отдаст ваш сайт на страницу /audit-sajtov?utm=avito ? Вы не ответили.
Это одна и та же страница, значит при настройке last-modified сервер вернет роботу те же данные. Приведенный адрес - это вариация адреса с рекламной utm меткой целевой страницы. Меток может быть множество и они определяются настройками целей. Я уже говорил - базово их нужно запрещать для индексации. Если при правильных инструкциях в robots они продолжают попадать в индекс - писать в тех. поддержку.
Рекомендация last-modified касается исключительно целевых полезных страниц, для того, чтобы при каждый итерации робота, он правильно расставлял приоритеты и корректнее индексировал новые данные, которые добавляются на сайт. Аномалии в индексации last-modified не решает, равно как и <lastmod> в XML карте - их функция - корректная передача дат обновления страниц для оптимизации поисковой квоты в процессе индексирования.
У меня информационный сайт. И объективно, выкидывает хорошие страницы со статьями. Уник, со списками, заголовками, фото и т.д.
Трафик на страницах есть?
Кому-нибудь внятно и по делу Платон ответил что происходит?
Уже 3-тий день подряд на одном новом сайте, каждый день то страницы добавляет в поиск то некоторые потом выкидывает, а потом снова добавляет.
это уже давно происходит - сегодня мне накинул 300 страниц в плюс по которым 404 уже месяца два ))
Дмитрий Громов вы где?
От переизбытка рекламы тоже выкидывает как "Недостаточно качественные"
Могу ещё рабочий пример привести. Есть ряд сайтов разного уровня проработки. Есть группа сайтов, где трафик единичный, текущих рабочих планов на сайты нет, сайты просто стоят. Без трафика страницы начинают отваливаться по НКС, наглядный пример, https://clip2net.com/clip/m326754/70a3f-clip-5kb.png?nocache=1
Начинаю добавлять трафик (причём не на целевую страницу, а на Главную), также страница (и еще группа других) возвращаются https://clip2net.com/clip/m326754/cd8a5-clip-20kb.png?nocache=1
Страницы естественно не менялись, информация не добавлялась. Входящие изменения - только трафик.
Так что на пограничные решения качества страниц напрямую также влияют и хостовые характеристики.
Всех приветствую. Сегодня пришло письмо что две страницы, которые в сумме дают около 700 уников дейли, были выкинуты из выдачи как недостаточно качественные. Самое интересное в том, что они находятся в топе уже 1.5 года, позиции по запросам не ниже топ 5, отказы менее 6%, среднее время 0:52 и 1:20. То есть страницы на сто процентов удовлетворяют запросу пользователя. Контент на страницах - описание заболевания с большим количеством фотографий одной и той же части тела (руки) с похожих ракурсов, медицинский СДЛ. Подумываю что алгоритм признал это дублирующимся контентом мб? Написал платонам - не отвечают. Что это - глюк Яндекса? И что предпринять?
Какой смысл обсуждать действия дурачка по имени Яндекс