- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
что если просто поменять навигацию на сайте и все внутренни ссылки которые указывают на страницы suppl. изменить и указать новые URL, а старые закрыть через robots
Можно поставить на часть склеенных страниц сайта по одной внешней ссылке и посмотреть, что будет. По крайней мере, обрабатывать страницу Googlebot начнет.
Можно поставить на часть склеенных страниц сайта.
А причём тут склеенных?
Во вторичный индекс, который обозначается как Supplemental Results, сейчас попадают в основном либо дубликаты страниц (то есть происходит их склейка), либо страницы, PR которых не достаточен для размещения в основном индексе.
По крайней мере, так говорят Мэтт Катс и Адам Ласник.
либо страницы, PR которых не достаточен для размещения в основном индексе.
Во! Во!
Я на себе это заметил, хорошо пропиаренной странице пофигу всякий там дубль-контент и supplemental, пекрасно сидит в индексе, но вот только песок еще не прошел...
Сменить урлы, с таким ПРом проиндексируются новые урлы относительно быстро. Делал так - помогает!
имеется в виду пиар морды?
смотря как менять - ИМНО нужно старые ставить через 301 редирект на новые.
если поменяеш а просто старые срубиш и запретиш в роботс.тхт то беда.
будут выходить долго и с кровью (
тобишь старье завести 301-м на новье, при этом со старыми что делать? удалить и запрещать в роботс?
Если старые "срубиш", некому будет выходить.
значит просто держать эти страницы со "старыми урл"?
значит просто держать эти страницы со "старыми урл"?
Нет, я как раз не об этом, наоборот проще поменять структуру урлов. Короче говоря, я согласен с Sergey T
Во! Во!
Я на себе это заметил, хорошо пропиаренной странице пофигу всякий там дубль-контент и supplemental, пекрасно сидит в индексе, но вот только песок еще не прошел...
Мой сайт говорит о другом. Старые старницы были с ПР3, куча лет им было и и о каком пекске речи нет. Вылетели все в suppl. за милую душу
Нет, я как раз не об этом, наоборот проще поменять структуру урлов. Короче говоря, я согласен с Sergey T
но если поменять УРЛ получиться что эти старые страницы с новым УРОлом будут совпадать со старыми страницами со страым УРЛом из suppl. куыгдеы и соотно-но снова могут сойти за дубликат и опять буду посланы в suppl. Замкнутый круг :-)
Нет, я делал смены названий урл + закрытие роботом дублей.
2 недели вываливается по куску то что закрытого роботом, но такими темпами еще копать и копать ( еще так на месяца 2 навскидку.
Потому - или пихать мета "но индекс" в страницы, как там пишется, ну или я вот как раз тружусь 301 редиректом с открытой для индексирования старой частью.
ИМНО и ПР переедет, те повыкидывает.
Ставил ссылки с каталогов на узловые, да, че т повылазило. но только узловые, низ не подтянули.
А на все ставить у меня ссылок не хватит (