- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такая ситуация. Есть около 12 K страниц которые будут обновлены в скором времени, не то что бы глобально, но прилично. Все эти страницы в индексе, но очень многие в соплях. Сейчас думаю как лучше поступить, запретить эти страницы для индексации, через гугловский сервис удалить их из индекса и потом, после того как будут выложены обновленные страницы разрешить их для индексации или ничего не делать, гугл сам обновит все страницы со временем. Почему собственно хочу сначала удалить, а потом добавить, потому что страницы которые в соплях уж очень редко гугл посещает. Какие мнения будут?
Unlock, зачем запрещать индексацию ?
просто меняйте контент + пробомбите ссылками по краям..должно помочь
viktorleo, был бы уверен зачем, не спрашивал бы :) Просто предположил, вдруг так лучше будет.
я недавно менял один свой портал ... там около 300к страниц было в индексе ...
я поставил 301 редирект - вроде прохавало... правда я сделал новыми линками всё
А не проще-ли после обновления добавить ссылок на внутряшки? И бот заглянет и сопли пропадут :).
Unlock, два варианта:
1) Запретить через robots и удалить страницы.
2) На новые страницы сделать 301 редирект со старых, если конечно урлы поменяются.
Имхо, лучше вариант номер один. Испытан на паре доменов с 50к страниц(20-30% в соплях).
Escrow, у меня перелинкова далека от идеальной, а поставить даже на 10K страниц ссылки, сами же понимаете, не реально :(
mcphantom, урлы не поменяются, а вот про первый вариант я как раз и говорил. Недавно косяк вскрылся, что 1.5 К страниц это почти полные дубли. Как быстро страницы ушли из индекса, после запрета через robots.txt?
Escrow, у меня перелинкова далека от идеальной, а поставить даже на 10K страниц ссылки, сами же понимаете, не реально :(...
Они что в одной папке? И никак не связаны? Я обычно выбираю точки доступа, или заранее разбиваю такие массивы на разделы - потом лечге. 10 новых ссылок на каждый раздел и бот прописывается на сайте :).
Escrow, как можно сделать ссылки на все 10K страниц? Т.е. бот конечно в 3-4 "клика" может дойти до каждой страницы, но ссылок на эти страницы внешние не поставишь. На разделы, откуда идут ссылки на эти страницы, внешние ссылки стоят, этого все равно мало.
Как быстро страницы ушли из индекса, после запрета через robots.txt?
Выходят долго и с кровью. 3 месяца потихоньку выпадали (это если сопли)
Написанно что если хочеш быстро - ставь метутаг ноиндекс на страницу, он ее оперативно выкинет.
В тулзах не удалать - это на пол года.
Ну а по нормальному - переписать контент и проставить ссылкы с Пр 6-7 , сильную.
Для переиндексации хватит. а там и с соплей вылезет, если нормально все переписал.
Sm@RT, всегда когда мне советуют поставить ссылок с ПР 6-7 на сопливые страницы, у меня вопрос, как можно на 10K страниц понаставить ссылок? Я признателен за совет, но поймите, в моем случае это практически не реально. Мне надо тогда как минимум 100 ссылок (поставить их на "разделы"), вы же понимаете какие это деньги.