- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Последний полгода трафик сайта немного снизилось, исправил несколько мелкий вещи (canonical, Last Modified, If-Modified-Since) Хотел уточнить что "robots txt" влияет на снижения трафик?
Хотел уточнить что "robots txt" влияет на снижения трафик?
Последний полгода трафик сайта немного снизилось, исправил несколько мелкий вещи (canonical, Last Modified, If-Modified-Since) Хотел уточнить что "robots txt" влияет на снижения трафик?
Из приведенного куска ничего страшного нет. Скорее всего попали под корректировки выдачи и апдейты.
Последний полгода трафик сайта немного снизилось, исправил несколько мелкий вещи (canonical, Last Modified, If-Modified-Since) Хотел уточнить что "robots txt" влияет на снижения трафик?
Дело не в инструкциях robots.txt, дело в том, что за последние пол года поисковики более критичны к качеству. А может быть и/или дело в том, что вас вытесняют конкуренты.
Здесь надо на выдачу смотреть и сравнивать содержание ваших/конкурентных страниц. Смотрите также ссылочную динамику конкурентов, сравнивайте со своей.
Дело не в инструкциях robots.txt, дело в том, что за последние пол года Яндекс более критичен к качеству. А может быть и/или дело в том, что вас вытесняют конкуренты.
Здесь надо на выдачу смотреть и сравнивать содержание ваших/конкурентных страниц.
Вроде ж ТС пишет в ветке про Google
Вроде ж ТС пишет в ветке про Google
Спасибо, показалось, что в ветке Яндекса. Впрочем, сказанное справедливо для обоих поисковиков.
Вы хоть нишу сайта укажите. Бывает так, что сама по себе ниша уже отмирала, а может это санкции, а может вы всю структуру сайта изменили, что ПС переиндексирует все страницы. Слишком много переменных, и ничего, что описали, не влияет на трафик.
Это лишь факторы, влияющие на то, что роботу ПС будет проще или сложнее работать с сайтом, а не причины падения трафика
исправил несколько мелкий вещи (canonical, Last Modified, If-Modified-Since
Ахах, ну верьте дальше, что это на что-то влияет)
Здесь надо на выдачу смотреть и сравнивать содержание ваших/конкурентных страниц. Смотрите также ссылочную динамику конкурентов, сравнивайте со своей.
Смотрел и сравнивал с конкурентный страница, конкурент победить за счет "canonical, Last Modified, If-Modified-Since, Table of Contents, /page/2/ index follow --> noindex follow, " про "robots txt" не могу ничего сказать.
Ахах, ну верьте дальше, что это на что-то влияет)
2. Частота обновления страницы
Google включает любопытную строку в свои рекомендации по обновлению дат вашего контента:
Многие, но, конечно, не все, веб-издатели злоупотребляют датами публикации , чтобы получить преимущество в SEO. Альтернативно, многие издатели просто хотят заверить читателя, что контент свежий.
В любом случае, на страницах очень часто отображается недавняя дата без существенных изменений в содержании.
Для исследования мы взяли случайную выборку страниц с каждого сайта в нашем наборе данных и извлекли самую последнюю дату « Опубликовано » или « Обновлено » на странице — если таковая существовала. Затем мы подсчитали, сколько дней было этой дате.
Результаты, честно говоря, меня удивили.
Средний возраст URL-адресов на сайтах-победителях составил 774 дня , или чуть более 2 лет (например, 2022 г.)
С другой стороны, средний возраст публикации/обновления у проигравших сайтов составил всего 273 дня , что в два раза меньше возраста победивших сайтов.
Утечка данных Google показала, что Google хранит несколько показателей вокруг «lastSignificantUpdate», поэтому, по-видимому, Google может определить, являются ли какие-либо обновления на странице существенными .
Еще один интересный факт: 35% URL-адресов с сайтов-победителей не содержали никакой даты на странице , тогда как только 4% URL-адресов с сайтов-проигравших не содержали даты.
Если вы часто обновляете даты на своих страницах, внося лишь небольшие изменения в текст , возможно, вам стоит пересмотреть эту тактику, если вы заметили снижение трафика.
https://zyppy.com/seo/google-updates-punish-good-seo/
Ахах, ну верьте дальше, что это на что-то влияет)
Канон работает кстати