- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Интересует такой вопрос, если на сайте более 5000 страниц, может ли это как-то сказать на ухудшение позиций сайта по запросам и на скорости индексации?
То есть стоит ли указывать в robot.txt страницы, которые не сильно важны, чтобы яндекс быстрее и качественнее индексировал оставшиеся страницы и определял позиции сайта.
Произошла такая ситуация, что недавно сайт переехал на другой хостинг и по ряду причин огромная часть страниц не была доступна для индексации. В результате сайт вылез по куче дополнительных запросов на не важных страницах. Поэтому и возник такой вопрос.
Какие есть мнения на сей счет?:confused:
Я, как правило, не сразу индексит все страницы нового сайта (тем более когда их 5000),
поэтому,
"То есть стоит ли указывать в robot.txt страницы, которые не сильно важны"
ИМХО стОит (временно).
Это для нового сайта, который еще не был проиндексирован.
Сайт был целиком проиндексирован яндексом уже давно..
Но из-за последних проблем с идексацией части страниц и возник вопрос:
могут ли негативно на позициях сказаться большое количество ненужных для продвижения страниц, которые постоянно индексируются?
Интересует такой вопрос, если на сайте более 5000 страниц, может ли это как-то сказать на ухудшение позиций сайта по запросам и на скорости индексации?
У меня проекты есть, где более 20.000 и 40.000 страниц.
Не наблюдал проблем ни с индексацией, ни тем более с позициями.
По поводу индексации смотрите на внутреннюю перелинковку, и на то как подаются свежие страницы для ПС.
По поводу позиций... это разговор долгий :) работайте над проектом...
У меня проекты есть, где более 20.000 и 40.000 страниц.
Не наблюдал проблем ни с индексацией, ни тем более с позициями.
По поводу индексации смотрите на внутреннюю перелинковку, и на то как подаются свежие страницы для ПС.
По поводу позиций... это разговор долгий :) работайте над проектом...
Спасибо за ответ,
А не можете в кратце отметить варианты подачи новых страниц для ПС?
Помимо прочих доводов в пользу большого количества страниц, каждая страничка банально отдает свой (пусть маленький) ссылочный вес главной. А накопленный вес учитывается при поисковом ранжировании.
ARCOS, вот когда больше 50-70 тыс. будет - поймете. Яндекс больше не индексит.
сайт lawlinks.ru - 147000 проиндексированных
veronica_, на домене второго уровня - 50-70 тысяч, все.
Нафик он яндексу нужен, и без того пачками оборудование закупают, вон давеча 2 фуры с серверами на таможне застряли :)