- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если я все правильно понимаю, то количество проиндексированных страниц на сайте гуглом и яндексом должны стремиться к равенству. Сейчас ситуация такая:
Яндекс 4,422 -96.91 %
Google 341,000 +34.25 %
пользуюсь сервисом cy-pr для оценки. Вижу, что падение произошло в обоих поисковиках, только в гугле с 540 к страниц и сейчас есть даже прирост, а в яндексе со 143 к и продолжает падать. Т.е. этот дисбаланс был еще до падения. Яндекс начал падать в мае 2016. Гугл рос до ноября 2016 и тоже начал падение. с какой стороны начать подходить к этой задаче? (изначально нужно было просто посмотреть есть ли дисбаланс, а теперь, что вообще происходит)
пользуюсь сервисом cy-pr для оценки.
смотрите в панели вебмастера в ПС, там еще и причины могут показываться...
Оказалось, что сайт не привязан к вебмастерам ПС. Привязали. Пока привязывали, обнаружила ошибку robots.txt. Теперь уже неизвестно время появления этой ошибки, возможно, во время перехода на https.
Было так:
User-agent: *
Allow: /
Host: мойсайт.ua
Sitemap: http://мойсайт.ua/sitemap.xml
Пока сделали так:
User-agent: *
Allow: /
Host: https://мойсайт.ua
Sitemap: https://мойсайт.ua/sitemap.xml
В результате уже за сегодня Яндекс добавил 74 000 страниц, А гугл почему-то потерял 4 000. В вебмастерах не видно никаких ошибок. Количество уников по Яндексу выросло. Вчера 1800, сегодня 4300
В Яндекс.Вебмастере смотрите раздел Индексирование - Страницы в поиске - Исключенные. Скорее всего, много дублей и прочего мусора.
Elparmus, в search console есть возможность посмотреть как гугле бот, и необходимые разделы отправить на пере индексацию. Тогда гугл ускорит индекс Вашего сайта. Там же можно посмотреть причину по которой страницы "вылетели".
Нет, они не должны стремится к равенству, у них разные подходы к выводу в индекс и разные параметры ранжирования, также они по разному относятся к различным мета-тегам и правилам в роботсе
В результате уже за сегодня Яндекс добавил 74 000 страниц, А гугл почему-то потерял 4 000.
При таком количестве страниц, явно есть не нужные для поиска. Вам необходимо спарсить все страницы сайта и составить роботс.
В Яндекс.Вебмастере смотрите раздел Индексирование - Страницы в поиске - Исключенные. Скорее всего, много дублей и прочего мусора.
Мусора нет, дублей нет
---------- Добавлено 28.04.2017 в 18:36 ----------
Elparmus, в search console есть возможность посмотреть как гугле бот, и необходимые разделы отправить на пере индексацию. Тогда гугл ускорит индекс Вашего сайта. Там же можно посмотреть причину по которой страницы "вылетели".
Спасибо, сегодня попробую
---------- Добавлено 28.04.2017 в 18:38 ----------
При таком количестве страниц, явно есть не нужные для поиска. Вам необходимо спарсить все страницы сайта и составить роботс.
да, сегодня уже занялись этим, убрали кусок в карте сайта и его же закрыли в роботсе. Там поправка 300к страниц с окончанием .jpg. Их и закрыли
---------- Добавлено 28.04.2017 в 18:43 ----------
Нет, они не должны стремится к равенству, у них разные подходы к выводу в индекс и разные параметры ранжирования, также они по разному относятся к различным мета-тегам и правилам в роботсе
Когда-то я слушала большую лекцию, думаю от Нетологии и там услышала эту информацию. Мне кажется это логичным, если мы все делаем правильно, то мы показываем поисковикам одинаковое количество страниц. не полное равенство, но примерно равные показатели. 70 к и 300 к слишком сильно отличаются. Явно что-то не так
Мусора нет, дублей нет
Ну а какой тогда у них статус указан? Если это не мусор и не дубли, то они были бы в поиске.
Ну а какой тогда у них статус указан? Если это не мусор и не дубли, то они были бы в поиске.
там вообще ничего нет, пусто, во всех трех вкладках. Я думаю, это связано с тем, что сайт только добавился в веб мастер. Когда я захожу на главную вебмастера, то вижу напротив сайта надпись "информация скоро появится"
Ну а какой тогда у них статус указан? Если это не мусор и не дубли, то они были бы в поиске.
Спасибо, спустя три дня раздел исключенных страниц заполнился и там 😮 Разбираемся теперь, 3 миллиона только дублей.