- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
не занимайтесь ерундой. Поставьтев роботс дисаллоу на корень / как сказали выше, хоть страницы и проиндексированы уже и в выдаче, через нек. время страницы будут удалены из базы. Процесс занимает до 3-х месяцев для самых убогих по скорости индексации и обновлении кеша сайтов.
Если говорить о поддеменных сайтах в Вашем случае, то не пойму зачем их удалять то? Если эти сайты информационные, если Вы не размещали ЭНное количество ссылок на основной домен, то проблем не должно быть исходя из логики и опыта, но "сегодня" я уже ничему не удивляюсь со стороны гугла... Если еще и контент у них уникальный, то вообще бессмысленно их удалять.
Цитата:
Сообщение от honeybee
Таких сайтов около 1000. Может ли это вредить основному сайту ?
Если с них не было линков на Ваш основной домен, почему оно должно повредить?
Если контент дублирует основной сайт - будет вредить еще как.
Удалять из индекса, когда туда уже попали - очень долгая песня, занимает месяцы. Правильный путь имхо предложил easywind.
Если контент дублирует основной сайт - будет вредить еще как.
Удалять из индекса, когда туда уже попали - очень долгая песня, занимает месяцы. Правильный путь имхо предложил easywind.
Я не говорил, что если не уникальный контент - надо оставлять, конечно, надо блокировать.
А если Вы уж хотите предложить самый быстрый способ, для того есть в панели вебмастера свойство ручного удаления страниц из выдачи)) Но даже для 1-го сайта, небольшого - это такой геморрой, что потом будут сниться кошмары)) Можно конечно и 404, согласен.
Вот нашел в хелпах
"Google больше не рекомендует блокировать доступ поисковых роботов к повторяющемуся контенту с помощью файла robots.txt или иных способов. Если поисковые системы не имеют возможности сканировать страницы с повторяющимся контентом, то они не смогут автоматически определять, что разные URL имеют одинаковый контент, и будут обращаться с ними как с уникальными страницами."
Теперь понятно почему рекомендуется ставить ноиндекс, а не писать в роботс. :)
Если контент дублирует основной сайт - будет вредить еще как.
Ясное дело. Тут скорей всего не это имелось ввиду. ТС переживает за свой сайт, на поддоменах которого размещены тестовые клиентские версии.