- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хочу запретить Яндексу индексировать страницы /elect.asp и /fast_reg.asp.
1. в robots.txt, прописал:
User-agent: *
Disallow: /fast_reg.asp
Disallow: /elect.asp
2. на самих страницах указал
<META NAME="ROBOTS" CONTENT="NOINDEX">
В результате страницы (с параметрами) при поиске в Яндексе
всеравно находятся.
Пошел удалять их вручную на http://www.yandex.ru/removeurl.html
и удалил все эти страницы.
Теперь в результатах страницы всеравно присутствуют (например, их список на http://www.yandex.ru/yandsearch?serverurl=www.neiron.ru%2Ffast_reg.asp), а при попытке удаления, Яндекс сообщает "Ваш URL ... не может быть удален из нашей базы данных. Причина: URL не найден в базе Яндекса."
Кто нибудь может объяснить как яндекс показывает ссылки которых у него нет (!) и как его заставить их не показывать?
Видимо, просто еще не происходило обновление.
Сколько времени прошло с этого момента?
А так вообще-то
User-agent: *
Disallow: /
действует на всех.
Виноват, не "въехал" в суть вопроса.
Страницы-то все-равно хранятся в кеше.
Надо ждать обновления базы.
Прошло больше двух недель с тех пор как прописал robots.txt
и полторы недели как удалил руками ссылки (которые удалялись).
В META запрет прописан уже больше месяца.
Все путем Radj!
Как говаривал Дуремар: "Еще 2000 ведер и золотой ключик будет наш!"
Просто надо дождаться, когда поисковики скушают твой robots.txt и примут его к действию.
В этом плане Rambler - самый быстрый - он берет robots.txt раз в неделю по понедельникам.
Хорошо. Подожду, еще пару недель. Если не удалит буду дальше копать.