- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вот такой у меня возник вопрос-рассуждение.
В теории - чем больше страниц ссылается на главную, тем больше ее вес. Почему тогда считается,
что от поисковиков нужно прятать дубли страниц и оставлять только канонические страницы, ведь
тем самым мы уменьшаем общий вес сайта? То есть чем больше страниц в индексе в т.ч. и дублей, тем должно быть лучше сайту в целом.
Нет понятия "общий вес сайта". А за дубли поисковики наказывают.
Нет понятия "общий вес сайта". А за дубли поисковики наказывают.
Хорошо. Например, речь идет о накачке главной страницы.
Хорошо. Например, речь идет о накачке главной страницы.
Сделайте 100 страниц с одинаковым контентом.... Потом вгоните это в индекс и продержите год...
dr303, не важно. Про дубли я ответил.
Сделайте 100 страниц с одинаковым контентом.... Потом вгоните это в индекс и продержите год...
Я не говорю о 100 одинаковых страницах. Например у меня есть страницы-дубли, отличающиеся сортировкой контента на них, к примеру сортировка по возрастанию и сортировка по убыванию. Контент одинаковый, но для поисковиков это 2 разные страницы. Обе прекрасно держатся в поисковиках длительное время.
Я могу добавить тег rel="canonical" и убрать подобные страницы. В общем-то так и рекомендуется по теории. В индексе поисковиков станет со временем существенно меньше страниц моего сайта.
Это ведь хуже?
ТС, неужели будет существенная разница для вывода в топ главной, когда на одном сайте 100 страниц, а на другом 800? ИМХО, не думаю, что это такой важный фактор.
ТС, неужели будет существенная разница для вывода в топ главной, когда на одном сайте 100 страниц, а на другом 800? ИМХО, не думаю, что это такой важный фактор.
Как это не будет? Когда на главную ссылается 800 станиц, а не 100 это в 8 (на самом деле меньше, но упрощенно пусть будет так) раз увеличивает внутренний вес главной. Или я не прав?