- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Последнии месяца два по многим сайтам прыгают проиндексированные страницы (то минус, то плюс, то вообще 50-70% страниц выпадает из индекса), написал в поддержку Яндекса, получил ответ:
"У нас есть алгоритмы, которые принимают решение по включению той или иной страницы в поиск. Это не относится к фильтрам или санкциям. Цель работы этих алгоритмов - уменьшить количество страниц, которые присутствуют в поисковой базе, но никогда не находятся пользователями по запросам. Решение принимается на основе множества факторов, в том числе динамических, которые на протяжении времени меняются, отсюда изменение количества страниц в поиске."
Что теперь, если страница не находится пользователем по запросу - её выкидывают? :) Что-то новое или очередной высер? Речь идет об уникальном контексте, теперь уже и это не гарантия нахождения в индексе? Что дальше?
Получив такой ответ, даже растерялся что отвечать... . Кто сталкивался с таком нововедением?
и добавь в конце
это к чему? Это типа такой же у вас "уникальный контекст"?
По существу бы - вопрос то в принципе серьезный и не пятница сегодня
Не зная можно ли здесь на чужой форум давать ссылку, отправил в личку. Там обсуждали это еще в мае.
spekter - спасибо, почитал.
Все ровно не отвечает на вопрос как быть в данной ситуации, если на сайте какое-то количество страниц, естественно что далеко не все страницы находятся по каким-либо запросам, поэтому их выкидываем? Нонсенс. Я понимаю, что Яндекс начинает сжимать свое ... - поисковую базу то есть, но разве такими методами нужно действовать? Получается, если страницы нет, допустим в ТОП 30 (дальше редкий юзверь полезет искать), то страницы вообще нужно выкинуть? Иродство какое-то, ей Богу.
P.S. Единственное что совпало с тем форумом - движек Joomla, может это причина?
Яндекс действительно подчищает базу, выкидывая ненужные, на его взгляд, страницы. То, что текст уникальный - это еще не гарантия того, что он будет представлять для кого-нибудь интерес. Я столько хлама уникального могу понаписать, кому он только нужен
Да это фильтр за поведенческое скорее всего. Никакой он не новый, так что давай до свиданья, ТС.
К поведенческому скорее всего это не имеет никого отношения, так как данный фактор на проекте вполне достойный и посещаемость высокая (тематика - сми, есть и в Яке, и в ЯН, и в ГН). Так что, n1g3r - если не знаете, лучше молчать.
А зачем поисковику держать в своей базе страницы которые никто никогда не запросит, тратить на это производительные ресурсы?
С вашей стороны я вижу мотив только для продаже ссылок, т.к. по другим страницам пользователи к вам прийдут на сайт и если эта страница интересная они ее найдут и прочтут. Если я угадал о мотиве - то вернуть не составит труда, сделайте их для поиска т.е. найдите тематический ключевик и впишите его по человечески в заголовок ну и в текст впишите пару раз
Подобное началось еще в осенью прошлого года (может и раньше, но до того момента я не замечал). В начале года устаканилось. Сейчас, видимо, еще одна волна
Логика Яндекса уже закономерна, зачем тратить деньги на наращивание технической базы, если можно захреначить новый алгоритм и сделать это очередной головной болью других.
Я конечно соглашусь, что в базе очень много хлама держится, вроде дублей страниц и страниц, генерируемых CMSками, их можно и выкинуть. Но, я сомневаюсь, что новый алгоритм выкинет именно их, почему-то складываются подозрения, что они останутся, а нормальный контент роботы посчитают неинтересным. Поживём - увидим.
Страницы порезало нормально, ушло много толковых страниц, осталось много хлама.