- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Более чем две недели назад запретил к индексации свой сайт (в роботс указал disallow всему сайту) дабы выпали с индекса страницы сайта (была полная смена структуры сайта) и воспользовался сервисом "Удалить URL". После того как стал закидывать страницы в "Удалить URL" - в я.вебмастер страниц в поиске становилось еще больше =). Дождался апа - показало, что выпало часть страниц с индекса. Через день проверил - они опять отображаются в индексе. Делаю запрос - выводит страницу с моего сайта - отправляю ее в "Удалить URL" - в ответ пишет что-то типа "указанный урл не проиндексирован". Кто-то сталкивался с подобной фигней?
Более чем две недели назад запретил к индексации свой сайт (в роботс указал disallow всему сайту) дабы выпали с индекса страницы сайта (была полная смена структуры сайта) и воспользовался сервисом "Удалить URL". После того как стал закидывать страницы в "Удалить URL" - в я.вебмастер страниц в поиске становилось еще больше =). Дождался апа - показало, что выпало часть страниц с индекса. Через день проверил - они опять отображаются в индексе. Делаю запрос - выводит страницу с моего сайта - отправляю ее в "Удалить URL" - в ответ пишет что-то типа "указанный урл не проиндексирован". Кто-то сталкивался с подобной фигней?
История один в один. И структуру изменял, и в robots.txt всё лишнее закрыл, сделал "Удалить URL" - по фигу. Более того, страницы (закрытые и удалённые) одновременно стали появляться в основном и дополнительном индексе.
раньше в индекс страницы попадали в течние 10 минут - сейчас несколько суток. Хотя по логам видно, что бот гугла шарахается на сайте. Яндекс, где-то за недели 2-3, все старые страницы выкинул из индекса.
Хых, наивные чукотские парни. Вы что, думали, что Яндекс вам все за один клик сделает? :)
А вы хоть моск включили перед тем, как это правило добавить? Вы запретили доступ к сайту роботам поисковых систем, но это вовсе не означает, что они вот раз и забыли про то, что в них попало ранее и каждый раз ударяясь о барьер он не будет знать, что у вас на сайте что-то поменялось, а уж тем более, что нужно что-то удалять. И так будет продолжаться не один месяц до полного выпадения из индекса.
Правило disallow НЕ говорит о том, что нужно что-то удалять.
А в свою очередь "Удалить URL" не дает моментального удаления. Это только добавляет задание Яндексу в ближайшие апы удалить вашу ссылку.
Чтобы максимально быстро добиться выпадения сайта из индекса нужно, чтобы по любому открываемому урлу сайта, роботы поисковый систем получали корректную ошибку 404 и никаких disallow.
Хых, наивные чукотские парни. Вы что, думали, что Яндекс вам все за один клик сделает? :)
Нет, за пол клика...
А вы хоть моск включили перед тем, как это правило добавить?
Конечно же нет, а что нужно?....
Правило disallow НЕ говорит о том, что нужно что-то удалять.
Капитан очевидность как всегда прав!
А теперь по существу:
выдержка из Я по поводу формы "Удалить URL"
выдержка из Я по поводу доступа к страницам
О том как работает удаление УРЛ:
кормим Я ссылками из формы удаления урл, по мере обхода бот удаляет (или помечает недействительными - точно не знаю) эти ссылки из своей БД индексированных страниц но не выкидывает из выдачи и их видно в панели Я.вебмастер по запросу до следующего апа, поэтому повторное добавление ссылки в форму на удаление урл может выдать ошибку о том, что эта урл не индексирована. Когда происходит АП - удаляются ссылки на ваши страницы и из панели вебмастера и из выдачи (удаляется не обязательно все 100% за первый ап, у меня из запрошенных ~1400-1500 выпало ~1000-1200). Сперва они выпали но потом появились из-за того, что я стал проверять как раз во время АПА, но спустя часов 10 они все-таки пропали.
А вы хоть моск включили перед тем, как это правило добавить? Вы запретили доступ к сайту роботам поисковых систем, но это вовсе не означает, что они вот раз и забыли про то, что в них попало ранее и каждый раз ударяясь о барьер он не будет знать, что у вас на сайте что-то поменялось, а уж тем более, что нужно что-то удалять. И так будет продолжаться не один месяц до полного выпадения из индекса.
Правило disallow НЕ говорит о том, что нужно что-то удалять.
А в свою очередь "Удалить URL" не дает моментального удаления. Это только добавляет задание Яндексу в ближайшие апы удалить вашу ссылку.
Ну вообще-то "Удалить URL" не добавляет в базу адрес цитирую:
Поэтому
Disallow: /
является одним из 3 вариантов.
Именно я так делал, когда надо было удалить пару сотен страниц. В течении 2 апов всё было успешно удалено из индекса.
Именно я так делал, когда надо было удалить пару сотен страниц. В течении 2 апов всё было успешно удалено из индекса.
Я когда то удалял с помощью disallow, наигрался и намучался.