- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые форумчане. У меня вопрос.
Есть сайт, старый, более миллиона страниц в индексе у Google.
Сейчас есть желание удалить значительную часть из страниц (пусть это будет 500,000).
Как это грамотно сделать, чтобы не было у Google никаких претензий с сайту?
Я к тому, что удаление такого кол-ва страниц всегда есть риск, риск понижения всего сайта?
Может быть, конечно просто отдавать 404ю и все, мол - ну были страницы, теперь их нет, мой сайт - что хочу то и ворочу... С другой стороны резко меняется структура, наполнение сайта.
Страницы собственно одношаблонные, много похожих блоков.
Находяться все в одной папке, domain.com/page/***
Желание есть чтобы страниц стало в индексе меньше, но вес оставшихся был выше.
Мои товарищи советуют делать meta noindex, dofollow
Вообщем, хотел бы услышать ваши мнения, желательно основаных на личном...
1. robots.txt
2. Google Webmaster Tools - Optimizations - Remove URLs
1. robots.txt
2. Google Webmaster Tools - Optimizations - Remove URLs
Нет, это все понятно - чтобы они удалились, со временем, будет даже просто достаточно отдавать 404ю. Меня больше волнует Google как отнесеться к такого рода резкому сокращению страниц?
Нет, это все понятно - чтобы они удалились, со временем, будет даже просто достаточно отдавать 404ю. Меня больше волнует Google как отнесеться к такого рода резкому сокращению страниц?
Врядли кто-то ответит вам на это вопрос достоверно. Потому что определить текущий статус страниц, которые вы собираетесь удалять, в выдаче и их влияние на внутренние связи, предсказать перерасчет этих связей, изменение статуса домена после столь масштабной перестройки на сайте с таким количеством страниц в индексе, идущее параллельно с корректировкой самих алгоритмов ПС - работа, мягко говоря, нетривиальная.
А как эти 500к выделить из 1 категории /page да ещё и те которые вы хотите? или там по фильтру определённый путь?
На этих страницах наверняка есть контент, который каким-то образом (видимо в плюс) влияет на ранжирование. Думаю, сайт вцелом просядет в выдаче после такой чистки. Для изменения развесовки я б лучше подумал о правильной перелинковке, а удалять стоит только если на странице совсем с контентом плохо - либо мало, либо не тематический. Всё ИМХО.
На этих страницах наверняка есть контент, который каким-то образом (видимо в плюс) влияет на ранжирование. Думаю, сайт вцелом просядет в выдаче после такой чистки. Для изменения развесовки я б лучше подумал о правильной перелинковке, а удалять стоит только если на странице совсем с контентом плохо - либо мало, либо не тематический. Всё ИМХО.
А если эти страницы под фильтрами, и дают как отрицательный вес ссылочному, так и понижение трастовости самого домена? Количество связей и факторов, которые нет возможности проверить , в случае описанном ТС, огромно, так что, повторюсь, не думаю что такие очевидные, но упрощенные предположения помогут правильно предсказать результат.
А если эти страницы под фильтрами, и дают как отрицательный вес ссылочному, так и понижение трастовости самого домена? Количество связей и факторов, которые нет возможности проверить , в случае описанном ТС, огромно, так что, повторюсь, не думаю что такие очевидные, но упрощенные предположения помогут правильно предсказать результат.
Именно тяжело проверить факт влияния каких-либо страниц в плюс или в минус, можно посчитать за последние 2 года на какие страницы были заходы, остальные под нож, собственно это и есть основная идея - как разделить страницы на удаление от страниц, которые нужно оставить.
Есть ощущение - что сайт тягает за собой балласт из полумиллиона ненужных страниц.
Я уж не знаю насколько сейчас актуально вспоминать саплиментал и прочие, я больше склонен полагать что из-за непосещаемых страниц - посещаемые недополучают вес.
Именно тяжело проверить факт влияния каких-либо страниц в плюс или в минус, можно посчитать за последние 2 года на какие страницы были заходы, остальные под нож, собственно это и есть основная идея - как разделить страницы на удаление от страниц, которые нужно оставить.
Есть ощущение - что сайт тягает за собой балласт из полумиллиона ненужных страниц.
Я уж не знаю насколько сейчас актуально вспоминать саплиментал и прочие, я больше склонен полагать что из-за непосещаемых страниц - посещаемые недополучают вес.
а что на этих страницах хоть?
и откуда ощущение такое взялось?
посещаемость страниц "соседей" по сайту вряд ли будет влиять на вес
а что на этих страницах хоть?
и откуда ощущение такое взялось?
посещаемость страниц "соседей" по сайту вряд ли будет влиять на вес
Это страницы с однородным контентом - один темплейт, картинки уникальные 5-6 штук.
Ощущение взялось в связи с проседанием всего сайта - медленно и уверенно вниз.
вы проверьте на попадание таких страниц в саплиметал( дополнительные результаты) если страницы там, а раньше не были - то вполне вероятно что панда потихоньку кушает сайт