- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вот что показывает сервис webmaster.yandex.ru по большому информационному портальному сайту:
- число загруженных страниц: 125785
- страниц попавших в поисковый индекс: 517
- число страниц ошибками: 38783
Как видно очень мало страниц в индексе, почти все выпали.
Случилось это примерно после введения нового алгоритма.
Не понимаю по какой причине из поискового индекса выпало более половины загруженых страниц (известных Яндексу, за исключением страниц с ошибками)?
Хостинг работает нормально, заголовки (код 200) и кодировка отдаются корректно, т.е. технических проблем не наблюдается, около половины всех страниц (т.е. те, что отмечены Яндексом с ошибками) специально мной заданы отдавать ошибку 404 или запрещены в robots.txt, как малоинформативные или дубликаты (печатные версии, формы и т.п.).
Информация не парсится (не воруется), размещают контент либо сами пользователи, либо я пишу и наполняю сам руками.
И я бы не сказал, что почти все страницы дубликаты и склеены, какую-то часть конечно допускаю, но не в таком огромном количестве.
Есть подобные конкурентные сайты с аналогичным контентом, но у них почти все страницы из загруженных Яндексом участвуют в поисковом индексе.
Подозрения (маловероятно конечно): на большинстве страниц присутствует php-код Бегуна (НЕ стандартный JS-код) с прямыми ссылками на click01.begun.ru/click.jsp... (до 5 ссылок на странице), который закрыт тегами <noindex>.
В остальном сайт белый и пушистый, нарушений нет.
Может у кого-то есть опыт по данной проблеме?
Что то знакомое ...
Вы не единственный кого Я. так поздравил, попробуйте поискать ответ на ваш вопрос здесь
Я тоже на одном проекте после смены алгоритма получил подарок, правда страниц было всего около 2000, сейчас потихоньку возвращаются, ответа не нашел, даже предположений нет.
Забыл еще, для сравнения:
У меня еще есть такой же другой большой информационный сайт, на том же IP, абсолютно тот же движок, та же структура, тот же robots и т.д., но только тематики разные. На выпавшем - строительство, на другом - оборудование.
Так вот на втором все до и после смены алгоритма без изменений, т.е. отлично, из загруженных Яндексом ~ 150.000 страниц в поиске больше 90%.
Вот и гадай..., чем один плох, а другой хорош, когда они до мелочей одинаковые, только тематический контент у них разный.
таже ерунда после смены алгоритма. 4к страниц как ветром сдуло. отписал платону - вернулись. вследующий ап снова вылетели. отписал платону -вернулись. вчера снова часть вылетела. видимо в этот ап опять отвалится и надо снова писать платону.
таже ерунда после смены алгоритма. 4к страниц как ветром сдуло. отписал платону - вернулись. вследующий ап снова вылетели. отписал платону -вернулись. вчера снова часть вылетела. видимо в этот ап опять отвалится и надо снова писать платону.
Похожая ситуация, уже писать надоело:)
Думаю скоро будет актуально сделать скрипт который проверяет индексацию определенных сайтов, при частичном (полном) выпадении автоматически отсылается письмо:)
Похожая ситуация, уже писать надоело:)
Думаю скоро будет актуально сделать скрипт который проверяет индексацию определенных сайтов, при частичном (полном) выпадении автоматически отсылается письмо:)
Ну заодно, чтоб съекономить время - в ТЗ скрипта написать, чтоб проверял сразу, не забанено ли мыло и IP-шник, с которого отправлялись предыдущии письма.
таже ерунда после смены алгоритма. 4к страниц как ветром сдуло. отписал платону - вернулись. вследующий ап снова вылетели. отписал платону -вернулись. вчера снова часть вылетела. видимо в этот ап опять отвалится и надо снова писать платону.
Ситуация аналогичная с той лишь разницей, что страницы несколько апов выпадают - потом появляется большее количество чем до начала падения, причем без всяких писем платону, траффик во время падения индекса уменьшается, но не так значительно как количество выпавших страниц, имхо что-то недокрутили в алгоритме еще
выпал сайт, жесть
Вероятнее всего вот причина...
кстати я в теме про ап писал уже. повторю здесь.
яндекс стал вдруг индексить страницы без ЧПУ. смотрю - часть страниц исчезла, начал проверять те что остались - а они динамического адреса, хотя на сайте уже 3 года модреврайт покою не знает и ЧПУ строгает. мистика блин.