- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
попалась мне тут интересная задачка: портал сменил движок в начала сентября и траф естественно с яши и гугла упал примерно в десять раз. вот прошло уже два месяца, но так все и осталось. что можно придумать для ускорения процесса? учиватывая, что на сайте примерно 30 000 страниц, контент уникальный и несколько сотен естественного ссылого (но сейчас уже видимо многое ведет на несуществующие страницы).
В какой-то степени поможет и облегчит участь только установка редиректов 301 со старых адресов на новые.
прописывать тысячи редиректов руками?
Может лучше как-то к программисту подъехать, денег ему предложить?
А вы как думали?
деньги с программистом тоже не помогут. в старой версии все было сделано в старом добром простом html.
деньги с программистом тоже не помогут. в старой версии все было сделано все старом добром простом html.
30 000 страниц на html? Ну Вы монстр. А как в базу движка то заливали?
А енто как? 30000?
Тогда вам придется вручную поставить редиректы только с тех страниц, на которые кто-то ссылается снаружи. Их же не 30000, а гораздо меньше. Остальные пусть выдают 404 или 301 на главную страницу.
30 000 страниц на html? Ну Вы монстр. А как в базу движка то заливали?
ресурсу 10 лет, в последние время работало несколько журналистов. а в базу залили несколько студентов за месяц.
anton bobrov добавил 28.11.2008 в 15:36
Тогда вам придется вручную поставить редиректы только с тех страниц, на которые кто-то ссылается снаружи. Их же не 30000, а гораздо меньше. Остальные пусть выдают 404 или 301 на главную страницу.
это понятно, я так и сделал.
меня именно интересует, как можно ускорить процесс переиндексации, чтоб новые страницы быстрее в индекс попали, а старые из него исчезли. единственное, что я придумал - это сайтмап. что еще можно сделать ума не приложу.
Есть два варианта действий:
1. Создать карту сайту в формате sitemap и скормить ее Гуглу, Яндексу.
2 В интерфейсе веб-мастеров Google есть возможность повысить скорость сканирования. (Прим. трафик тоже жрать будет :))
У Яндекс пока нет возможности повлиять на скорость, но возможно sitemap поможет.