- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сабж.
Как это сделать, кроме как ждать? (зная гугл, можно прождать долго )) ).
Заранее всем спасибо.
Должен признать что Гугл дает неплохие ответы на этот вопрос :)
В роботсе закрыть и в вебмастере потыкать удаление
Должен признать что Гугл дает неплохие ответы на этот вопрос
И какие же?
В роботсе закрыть и в вебмастере потыкать удаление
а если просто в роботс без wmt? то как долго будет по времени удаляться?
а если просто в роботс без wmt? то как долго будет по времени удаляться?
Если учесть что закрытое изначально в роборс легко попадает в индекс, то скорее всего очень долго. Лично я удалял через панель, довольно эффективно. Хотя некоторые страницы в кеше упорно появлялись снова, причем со старым контентом.
Ещё можно добавить на страницу
<meta name="robots" content="noarchive">
http://noarchive.net/meta/
Проверенный и рабочий метод, который недавно использовал.
Надо сделать 3 вещи:
1. закрыть в robots.txt
2. сделать на них 404
3. удалить через панель вебмастера.
Гарантировано удаляются от 1 до 3 суток. Я проверял.
Сабж.
Как это сделать, кроме как ждать? (зная гугл, можно прождать долго )) ).
Заранее всем спасибо.
Если страниц мало, то быстрее всего с помощью webmasters tools. Эта опция в разделе Crawler access
если страниц много, и все они имеют определенную структуру (например domain.com/content/)
то можно в течение суток удалить хоть 100.000 страниц из индекса гугла. Достаточно, как писали выше, добавить в роботс.тхт записать не индексировать, и в вебмастер тулз удалить линки (вебмастер тулз кстати автоматически проверяет, что бы в роботс.тхт была строчка о НЕиндексации).
Если у страниц нет определенной структуры - то зависит опять же от количества. Проще только в роботс.тхт прописать, т.к. каждую страницу запрашивать на удаление запарно.
Всем спасибо за советы.
Достаточно, как писали выше, добавить в роботс.тхт записать не индексировать, и в вебмастер тулз удалить линки
Если не затруднит, скиньте, пожалуйста роботс, в котором запрещена индексация всего что бы то ни было (чтобы наверняка) :)
email: SpikeDomains "собачка" gmail.com