- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А это не насторожило? После переклейки фильт с исходного домена обычно через 2 недели перетекает (по крайней мере, раньше так было). Может фильтр у Вас.
Если это фильтр, то какой?
P.S. Сегодня вспомнил по серию рекламных статей, за публикации которых мне реклы платили в свое время (все равно они уже не актуальны и я с ними не работаю). Не знаю, как насчет причины для понижения, но качества сайту они точно не делают (куча ссылок и мало текста). Грохнул с кодом 410 (удалено) в .htaccess.
Если это фильтр, то какой?
P.S. Сегодня вспомнил по серию рекламных статей, за публикации которых мне реклы платили в свое время (все равно они уже не актуальны и я с ними не работаю). Не знаю, как насчет причины для понижения, но качества сайту они точно не делают (куча ссылок и мало текста). Грохнул с кодом 410 (удалено) в .htaccess.
Если методом исключения, то скорей всего не Пингвин, не за ссылки. У меня как то был Пингвин, регал новый домен и по 301 редиректу фильт не перетек.
Панда?
Если методом исключения, то скорей всего не Пингвин, не за ссылки. У меня как то был Пингвин, регал новый домен и по 301 редиректу фильт не перетек.
Панда?
Вот картинка из panguintool:
Как видно, позиции сайта в Google падали обычно после "Unnamed" апдейтов алгоритма и Core Quality.
В общем, обнаружилась у сайта интересная проблема. В новой консоли вебмастера Google в разделе "Покрытие" висит куча URL (несколько тысяч) в статусе "проиндексировано, несмотря на блокировку в robots.txt". На проверку это оказались адреса фидов, которые создает тема Newsplus для Wordpress для каждой страницы (RSS-лента комментариев). На сайте стоит ее платная коммерческая версия.
Почему Google проиндексировал все это хозяйство и проигнорировал robots.txt - отдельный вопрос. С точки зрения контента они являются мусором, так как комментариев на сайте реально немного и они есть далеко не у всех материалов. В отличие от нормальных HTML-страниц, они не содержат тега canonical, который бы мог помочь, так как это - RSS.
А вот теперь самое интересное. Анализ показал, что сразу после того, как эти страницы "надуло" в индекс, трафик с Google упал в течение недели в два раза. Более того: предыдущее наиболее серьезное падение позиций в Google было аккуратно спустя три недели после установки этой темы и произошло перед обновлением Core Quality в октябре 2017 года.
Что было сделано: ссылки на фиды страниц, тегов и категорий убраны из шапки темы, оставлены только общие ленты постов и комментариев. А сами эти фиды редирекчены на своих страницы с кодом 301. Лучшего решения не придумал.
Пока отправил на повторную проверку - посмотрим, что будет дальше.
Тоже была на паре сайтов подобная техническая ошибка.
На одном под каждый медиафайл создавались отдельные страницы, по сути — мусор. Заметили поздно, в индекс всё это дело вошло и теперь выходит с большим скриптом. Трафик не возвращается.
На другом — отдавался ответ 200, если ввести в конце адреса любой несуществующей страницы определенную цифру аля site.com/asdad9/ site.com/s12/blabla9/. Откуда Гугл брал эти страницы — не понятно, возможно кто-то проспамил. Успешно индексировал, заметили поздно как и вы. Трафик упал в 4 раза и не возвращается даже после исправления. Мало того, страницы те уже месяц отдают 404 но всё равно в серч консоли висят как в индексе.
Для документов или страниц попавших в "покрытие", которые вроде как запрещены в robots.txt но на них есть ссылки. Настройте для них отдачу заголовка - x-robots-tag: noindex. Google Хорошо на него реагирует. Либо через htaccess либо средствами php.
Для документов или страниц попавших в "покрытие", которые вроде как запрещены в robots.txt но на них есть ссылки. Настройте для них отдачу заголовка - x-robots-tag: noindex. Google Хорошо на него реагирует. Либо через htaccess либо средствами php.
Ну в моем случае это хозяйство гораздо правильнее было удалить, так как никакой ценности с точки зрения контента оно не несет в принципе. А так совет хороший.