- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Замучился уже блокировать страницы и удалять через вебмастер их после блокировки в роботс.
Гугл вновь их индексирует хотя в роботс они запрещены - при проверке в вебмастере гугла этих страниц тоже пишется что запрещено. Почему он их тогда индексирует и каким образом еще можно удалить страницы из гугла кроме роботс?
Гугл тормоз, нужно ждать. За 2-4 месяца выкинет, такое часто бывает
WooCommerce Product Request (https://wordpress.org/plugins/woo-product-request/) - Покупка в один клик
kapper, если на эти страницы есть ссылки, то не выкинет
kapper, если на эти страницы есть ссылки, то не выкинет
Нету - сайт молодой, создаю только. Спасибо...
kapper, если на эти страницы есть ссылки, то не выкинет
а если meta указание для роботов "noindex nofollow" - выкинет?
По userAgen'у заблокируйте, точно сработает.
MisterCh, это рекомендация и робот не обязан ей следовать :)
По userAgen'у заблокируйте, точно сработает.
А что это такое и с чем его едят?
- https://support.google.com/webmasters/answer/93710?hl=ru
единственное но - на страницу с метатегом не должно быть запрета в роботсе, чтобы бот мог ее просканировать
sok3535, только вот ни слова, про не учёт данной страницы в доменных факторах
как отреагирует гоша если таких страниц будет очень много?
и на них будут вести порно анкоры? :)
как отреагирует гоша если таких страниц будет очень много?
Ответ sok3535 совершенно правильный. Имел опыт с 11000 страниц мусора на сайте (при всего 12500 в индексе). Гораздо хуже их иметь в индексе, чем иметь вне индекса прописанным noindex.
Что же до порноанкоров, это совсем другой вопрос.