- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, всем
Вот такая статистика по разделу "Статус индексирования" в webmaster tools
там где начинается резкий подъем, в этот момент был создан новый проект, все страницы были склеены, но на новом проекте есть поиск с немалым количеством вариантов фильтрации, его охотно съел гугл.
Я грешу именно на формы фильтрации и поиска, изначально я пытался закрыть его в файле robots.txt что ничего не дало, даже при запросе удаления, спустя 2 месяца эмоций море результата 0ль.
Позже я открыл в robots.txt доступы к этим страницам с формами, но поставил таги noindex и noarchive в мета данные, что опять же ничего не дало, теперь я сделал "понимаю что не правильно, в правилах использования написано о том что так делать не стоит" rel="canonical" указав главную страницу с формой поиска, которая должна быть в выдаче одна.
Я проверил проект на битые ссылки, их нету
Это было предисловие
теперь то что никак не могу решить
1. Каким образом закрыть формы поиска от google ботов что бы те страницы с формами которые уже были проиндексированы выпали из индекса, а новые туда не попадали
2. Самое главное (откуда 6666) число еще такое, столько страниц. У меня в sitemap 1000 с мелочью, даже формы поиска не могли генерировать столько урлов
3. Возможно ли как то увидеть те страницы которые были опущены из результатов поиска в google
Люди помогите пожалуйста разобраться, я готов заплатить за результат, за урлом обращайтесь в личку
Спасибо большое всем.
люди помогите пожалуйста
Вообще поисковики формы поиска не заполняют, поэтому поисковые страницы не должны были быть съедены. А так для избавления от дублей - закрывать в роботсе, для тех что уже схватились можно прописать 301 редирект в .htaccess для более быстрого их удаления.