- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пытаюсь убрать второй месяц уже сайт из индекса, запретив индексацию в метатегах. Гугл повел себя адекватно, выкинув сайт из индекса дня за три. А яндекс не хочет) Трафик как шел так и идет, мало того, количество страниц в индексе даже увеличилось!
Пришло в голову посмотреть в выдаче текстовую копию, это он так индексирует лениво, или я блондинка? Оказалось, я блондинка...
Текстовые копии в выдаче максимум двухнедельной давности, весь сайт обновлен с запретом в метатегах. Получается, с этим поисковиком надо как-то по-другому избавляться от страниц?
На скрине строка исходного кода в метатегах сайта. Скрин сделан с экрана, я сохранила урл яшкиной текстовой копии.
если страниц немного, можно попробовать https://webmaster.yandex.ru/delurl.xml
но, конечно, тоже нет гарантий, Яша сейчас такой непостоянный
---------- Добавлено 01.11.2015 в 00:18 ----------
ну и в роботсе попробуйте запретить, может тогда Яндекс больше послушается
Почему не сделать через robots?
Почему не сделать через robots?
Из-за гугла был выбран этот путь, в гугле запрет в роботс не убирает сайт из выдачи, а только отправляет его в сопли... Но теперь пойдем и тем путем) Пропишем конкретно яндексу, что сайт не надо индексировать.
Руки дошли. В общем, кому надо информацию: чобы убрать сайт из индекса Яндекса:
1. <noindex>бесполезно.
2. Просто запретить в роботс бесполезно, будет яшка мучить вопросом в вм, а вы уверены? а может, откроете доступ?
3. Работает запрет в robots.txt + выкидывание ссылки за ссылкой планомерно через форму удаления урлов. Это работает 100% и за буквально 3-4 часа. Без апов.
Есть способы быстрее - напишите. Меня спасла зенка от кучи ручного труда.
l1mon и iq2003, спасибо!