- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайт vse-pro-detey.ru Обычный информационный блог на WP, продвигаются статьи.
Статьи нормально живут в топе. Но изучая структура сайта обнаружил следующие:
Все категории, подкатегории закрыты от индексации в robots, и соответсвенно, в индексе страниц нет. Также закрыты от индексации все /page, т.е страницы на главной с постами 1,2,3,4,5 и т.д
В итоге глазами ПС структура сайта следующая: что пользователь с главной может попасть на html карту сайта, и лишь оттуда (сделав еще несколько кликов) попасть на нужную статью. Все, других вариантов нет. Повторюсь,Сайт нормально живет и сидит в топе.
Как же так?:dont:
Структура сайта лишь косвенный показатель в ранжировании?
Возможно таким образом вебмастер борется с дублями, возникающими в результате пагинации.
Как же так?
А что не так? Убрали дубли. Категории, конечно, "редко" убирают, а страницы типа /page/100500/ закрываются, как правило...
Сайт vse-pro-detey.ru Обычный информационный блог на WP, продвигаются статьи.
Статьи нормально живут в топе. Но изучая структура сайта обнаружил следующие:
Все категории, подкатегории закрыты от индексации в robots, и соответсвенно, в индексе страниц нет. Также закрыты от индексации все /page, т.е страницы на главной с постами 1,2,3,4,5 и т.д
В итоге глазами ПС структура сайта следующая: что пользователь с главной может попасть на html карту сайта, и лишь оттуда (сделав еще несколько кликов) попасть на нужную статью. Все, других вариантов нет. Повторюсь,Сайт нормально живет и сидит в топе.
Как же так?🙅
Структура сайта лишь косвенный показатель в ранжировании?
Для Яндекса это вполне нормальная структура, главное -- на сайте нет дублей, а это Яндекс ценит выше всего. :)
Т.е на своих сайтах на WP можно также закрыть от индексации категории подкатегории? В навигации они есть, пользователям удобно переходить в подкатегории и там уже найди нужную информацию.
Но это создает дубли, анонсы постов бывают полностью дублируются и на главной и в категории и подкатегориях, чутье подсказывает, что это не айс.
После закрытия не пострадает ли сайт? Уменьшится ли внтуренний вес страниц? И вообще, существенно ли структура сайта влияет на продвижение?
В моем случае главная, категории, подкатегории только для удобства пользователей. Продвигаются сами статьи.
Спасибо за подсказки:)
После закрытия не пострадает ли сайт? Уменьшится ли внтуренний вес страниц? И вообще, существенно ли структура сайта влияет на продвижение?
Пострадать то не пострадает, но будет ли такое решение наилучшим, сомневаюсь.
Например, Яндекс строит модель вашего сайта (основываясь в том числе и на поведении ваших посетителей). Так вот посетители на вашем сайте будкт ходить путями: главная-категория-подкатегория-статья (в обоих направлениях), а поисковику для индексации вы подсовываете другую структуру (через карту сайта или еще какую). В итоге у Яндекса формируются две структуры - одна реальная (основанная на реальных факторах), а другая - второстепенная, чисто для индексации. Первую (реальную) структуру Яндекс учитывает точно, а вот как он соотносит с ней вторую (не совпадающую с первой) структуру индексации, я не знаю. В любом случае мне такое разделение не нравится, т.к. не соответствует реальной структуре, реальным потокам посетителей. Но дубли тоже плохо. Я склоняюсь к тому, что лучше работать с реальной структурой, просто надо ее сделать простой, однозначной, понятной. Ну и ?page=n сами не индексировать, но разрешить роботу по их ссылкам проходить.
Уменьшится ли внтуренний вес страниц?
Можно просчитать это софтом- PageWeight, или http://netpeak.ua/soft/netpeak-spider/.
В итоге глазами ПС структура сайта следующая:
ПС могут учитывать закрытые в роботс и не находящимся в индексе (которые нельзя найти через поиск) страницы.
Структура сайта в глазах ПС такая же как и в глазах пользователя (не индексирует не значит не видит), чел. просто выбрал стратегию продвижения материалов и сделал всё правильно для этого. Не нужны теперь ему ссылки, он за счёт контента и перелинковки берёт трафик.