- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
такая ситуация. У меня на сайте Линкер стоит для обмена ссылками. Не так давно на сайт вирус проник (троян, который внизу кода титульной страницы всякую фигню генерит.) Троян удалил. Через некоторое время при проверке сайта в Яше увидел несколько проиндексированных страниц с ссылками которые я не устанавливал (add link...........). Как это убрать с сайта. Полный адрес этих страниц я в robots прописал. Когда начал в ручную из Яши удалять каждую страницу поочереди-Яша пишет, что не может страницу удалить, поскольку якобы она не проиндексирована. (хотя показана в списке проиндексированный страниц сайта). А заодно еще и поддомен проиндексировался, который абсолютно не нужен. Как быть? Как правильнов данном случае robots составить, чтобы весь этот мусор с сайта убрать и поддомен убрать из индексации?
Как правильнов данном случае robots составить, чтобы весь этот мусор с сайта убрать и поддомен убрать из индексации?
Если данных страниц на сайте нет и сервер отдает ошибки 404 или 403, то они сами должны удалиться. Но можно немного помочь убрать:
В robots.txt прописываем
User-agent: *
Disallow: /названиефайла.html
Поддомен убрать можно так:
в robots.txt написать
User-agent: *
Disallow: /
но дело в том, что яндекс не выдает кода ошибки.
Просто пишет "Удаление URLа
Документ http://www.ррррррр.ru/linker/add_link.htm?text=%3E%3Ch2%3E%EF%F0%EE%E4%E0%E6%E0+%E0%E2%F2%EE%EC%EE%E1%E8%EB%E5%E9+%E8%E7+%E5%E2%F0%EE%EF%FB%3C%2Fh2%3E%FF%EF%EE%ED%F1%EA%E8%E5+%E0%E2%F2%EE+%E2+%EC%EE%F1%EA%E2%E5+%3Ca+href%3Dhttp%3A%2F%2Fauto-center.ru%2Fnews%2Fqashqai.pr.php%3E%EF%F0%EE%E4%E0%E6%E0+%E0%E2%F2%EE%EC%EE%E1%E8%EB%E5%E9+%E8%E7+%E5%E2%F0%EE%EF%FB%3C%2Fa%3E+%E0%E2%F2%EE%E7%E0%EF%F7%E0%F1%F2%E8+%FF%EF%EE%ED%F1%EA%E8%E5+%E0%E2%F2%EE%3Cbr%3E
не может быть удален из базы Яндекса, так как он не был проиндексирован."
кстати говоря, а что в robots написать, чтобы сам домен запретить от индексации во всех поисковиках?
Документ http://www.ррррррр.ru/linker/add_lin...%F2%EE%3Cbr%3E
не может быть удален из базы Яндекса, так как он не был проиндексирован."
Так значит его нет в индексе :)
кстати говоря, а что в robots написать, чтобы сам домен запретить от индексации во всех поисковиках?
User-agent: *
Disallow: /
только вот странно, когда на эту "проиндекированную белеберду" в списке проиндексированных страниц нажимаешь - страница такая есть.....
т.е. файл роботс для защиты от индексации домена и поддомена не отличаеться?
т.е. файл роботс для защиты от индексации домена и поддомена не отличаеться?
Так и поддомен от домена мало чем отличается :). Разве что у них "корни" в разных папках или на разных серверах.
т.е. файл роботс для защиты от индексации домена и поддомена не отличаеться?
И домен и поддомен должны иметь свой роботс. Указания роботса работают от корня домена или поддомена.
john2007 Тогда, как правильно их составить?