- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
хочу убрать из индекса страницы результатов поиска, прикрыв их в robots.txt и убрав из сайт-мэпа. Проиндексированных страниц такого рода - несколько тыЩ. Яндекс/Гугл не будут ругаться (из-за ошибок невозможности доступа к уже проиндексированным)? Думаю, что нет - в конце концов - это ведь им на благо, но хотелось бы уточнить...
Спасибо!
А смысл убирать, неужели там хранится какая-то "кака"?
но хотелось бы уточнить...
Не будет.
А смысл убирать, неужели там хранится какая-то "кака"?
Дублирование контента.
А смысл убирать, неужели там хранится какая-то "кака"?
Каку вам потом поисковики выдадут, очень они не любят когда их заставляют индексировать результаты поиска.
Каку вам потом поисковики выдадут, очень они не любят когда их заставляют индексировать результаты поиска.
Вот не выспался сегодня, не дочитал что там хранятся результаты поиска..🤣, ну тогда логично прикрыть, думаю ничего не случится.
Спасибо, BigMak и всем.
Здравствуйте.
хочу убрать из индекса страницы результатов поиска, прикрыв их в robots.txt и убрав из сайт-мэпа. Проиндексированных страниц такого рода - несколько тыЩ. Яндекс/Гугл не будут ругаться (из-за ошибок невозможности доступа к уже проиндексированным)? Думаю, что нет - в конце концов - это ведь им на благо, но хотелось бы уточнить...
Спасибо!
Яндекс/Гугл сам рекомендует страницы поиска закрывать в robots.txt как не интересные для пользователя.
Он не будет ругатся ведь Вы же сами даете команду боту не ходи сюда.