- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Народ, по возможности разъясните такой вопрос.
Насколько сильно влияет на поисковую выдачу кол-во проиндексированных страниц сайта? Дается ли больший приоритет по определенному запросу тем сайтам у кого показатель «Еще с сайта» для этого запроса выше?
Приоритета нет.
Приоритета нет.
Понятно. Но какие-нибудь плюсы в большем кол-ве проиндексированных страниц сайта есть? Или же можно все закрывать в robots.txt и оставлять только самые главные страницы сайта?!
Но какие-нибудь плюсы в большем кол-ве проиндексированных страниц сайта есть?
Есть, если на каждой уникальный контент (в идеальном мире). Он, к примеру, может собирать траффик по низкочастотным запросам.
В практике наблюдал такую картину. Никак не мог побить конкурента - показатели вроде одинаковые, морды, все дела... Но он всегда выше меня был.
Потом посмотрел, сколько страниц в базе Яши у него и у меня.
Проблема решилась ополовиниванием проиндексированных страниц у меня.
P.S. Сайт до сих пор на 1 месте.
Есть, если на каждой уникальный контент (в идеальном мире). Он, к примеру, может собирать траффик по низкочастотным запросам.
Т.е., если с внутренних страниц траф не идет, то их можно смело закрывать безо всякого на то риска (имеется ввиду позиции в выдачи по основным поисковым запросам)?
Проблема решилась ополовиниванием проиндексированных страниц у меня.
Evgeny Smirnoff, не совсем понял сказанное. Не могли бы разъяснить.
Понятно. Но какие-нибудь плюсы в большем кол-ве проиндексированных страниц сайта есть? Или же можно все закрывать в robots.txt и оставлять только самые главные страницы сайта?!
Во-первых, если контент страниц разный (не дубли) и достаточно уникальный, то будет больше вероятность захода посетителей по различным запросам (в основном низкочастотные запросы) на конкретные страницы, а не только на продвигаемые.
Во-вторых, что вы будете закрывать от индексации? Если, часто обновляемый контент (например, новости), то, с одной стороны, может получится, что сайт у вас станет для yandex'а "редкообновляемым". А это влечет к тому, что к вам будет редко заходить робот.
А, с другой стороны, если не закрыть "лишний и бестолковый" контент, который обновляется и (или) добавляется в огромном количестве, да еще и не уникальный… Может получится, что яндекс будет только его и молотить, а то, что действительно надо быстро проиндексировать (переиндексировать) "не найдет" или "не дойдет"...
...
Всем большое спасибо за ответы, но самое главное то, что я хотел выяснить от меня ускользает. Наверное, вопрос сформулировал изначально не верно. Попробую еще раз :)
Есть большое кол-во страниц («Вопросы-ответы», «Глоссарий»). Контент весь уникальный. Тематичность (специализация) одна, но при этом очень широкая. Безусловно, на всех этих хххххх страницах есть слова и словосочетания (так сказать, ключевики) по которым ведется работа по главной странице.
Учитывает ли Яндекс контент всего сайта для выдачи главной страницы в своем поиске?
Вследствие чего и встает вопрос про robots.txt. Пренебречь НЧ-запросами и трафиком с них ради более частой индексации index и главных страниц сайта. Если, конечно, на качестве выдачи Яндексом гл. страницы это не повлияет.
Есть большое кол-во страниц («Вопросы-ответы», «Глоссарий»). Контент весь уникальный. Тематичность (специализация) одна, но при этом очень широкая. Безусловно, на всех этих хххххх страницах есть слова и словосочетания (так сказать, ключевики) по которым ведется работа по главной странице.
Учитывает ли Яндекс контент всего сайта для выдачи главной страницы в своем поиске?
<Just IMHO>Я ведет топ ключевиков ВСЕГО сайта и таким образом определяет его тематичность. Ну про стоп слова здесь сказать ничего не могу. И если ключевик НЕ отвечает тематичности ВСЕГО сайта, то по нему НЕ ДАЕТСЯ доп. преимущество. </Just IMHO>
А еще мое мнение, количество страниц сайта влияет на ВИЦ главной страницы, увеличивая его с увеличением числа страниц (при условии, что эти страницы ссылаются на главную - так обычно и бывает) - это из формулы для PR
Вследствие чего и встает вопрос про robots.txt. Пренебречь НЧ-запросами и трафиком с них ради более частой индексации index и главных страниц сайта. Если, конечно, на качестве выдачи Яндексом гл. страницы это не повлияет.
ИМХО, универсального ответа здесь нет. Расширение контента может и улучшить позицию высокочастотника и понизить ее.
Повысить позицию высокочастотника может правильная линковка (см. ответ Bdiang), понизить (иногда весьма значительно) тупое наращивание контента ведущего к растекание вица по бОльшему кол-ву страниц.