- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Интернет-магазин.
Лет 10 назад реализовал возможность сортировки по размеру и закрыл все эти результаты в robots.
Несмотря на запрет Яндекс с удовольствием кушал эти страницы и многие из них попали в выдачу и резвенько так давали до 10% входящего траффика. В 2016-м по совету решил открыть эти результаты и траффик с этих страниц удвоился, но их как то уж очень много попало в индекс. Ровно через год Яндекс сказал свое "фи" и выкинул почти все эти страницы в недостаточно качественные. Ссылок на них нет, поэтому недостаточно качественные вывалились из индекса, а новые он и не индексирует, хотя народ ходит - народ то выбирает параметры. В целом оставшиеся в индексе страницы (их около 40) продолжают привлекать траффик по НЧ запросам и сейчас это около 5% от всех входящих.
Сегодня нашелся еще один спец, который ухмыльнулся и сказал, что если я не хочу продолжения падения сайта - эти страницы нужно заблокировать в robots.
- стоит ли блокировать?
- как сохранить траффик? Неужели "выловить" все траффиковые и сделать по ним посадочные тэги?
- не потому ли они сохранились в индексе, что они дают траф?
Собираешь ся - получаешь структуру , страницы под все трафиковые запросы нужно создать , а поиск закрыть
Посадочные же только под траффиковые запросы?
К примеру Рулетка 200 см надо, а Рулетка 215 см нет?
если нет трафика то зачем страница ? ))) Л логика
если нет трафика то зачем страница ? ))) Л логика
Автоматом можно.
Или таким автоматом еще глубже загоню?
Ну и раз уж отвечаете -)
Действующие страницы поиска удалить через вэбмастер яндекс, или пущай само вываливается?
Только meta noindex. Не забываем и про google.
Автоматом можно.
Или таким автоматом еще глубже загоню?
Ну и раз уж отвечаете -)
Действующие страницы поиска удалить через вэбмастер яндекс, или пущай само вываливается?
автоматом создавать страницы можно , если не лям их нагенерите , надо же знать как это правильно делать
действующие страницы Средиректить конечно на посадку))) Л логика))
все таки сео не ваше, не мучайтесь - заплатите кому то , тут есть парни с отзывами
---------- Добавлено 23.10.2019 в 23:32 ----------
Только meta noindex. Не забываем и про google.
так в гугл мета пашет тоже
Об том и речь, что скрывать не в роботсе
как сохранить траффик? Неужели "выловить" все траффиковые и сделать по ним посадочные тэги?
да
10символов
- стоит ли блокировать?
- как сохранить траффик? Неужели "выловить" все траффиковые и сделать по ним посадочные тэги?
- не потому ли они сохранились в индексе, что они дают траф?
Не потому.
Всегда ограничены возможности индексатора по выявлению всего того... что ТП назойливо рекомендует исключать из индексации (поскольку ихний бот туп).
Изучаете признаки, по которым искалка распознает дубли / страницы поиска..,
генерите страницы поиска так, чтобы для ползателя они остались такими же, а для индексатора 'разнообразнее', начиная с маски урлов,
запихиваете в индекс страницы поиска по ходовым запросам. Не жадничайте
pc когда я пользовался поиском, то не столь уж редко мне попадались страницы поиска по сайту, раздражения это не вызывало
Вопрос технического характера.
ЮРЛЫ закрываемых страниц выглядят так:
Для меня важно сохранить накопленные ПФ несколькими страницами.
Соответственно под эти ключи делаю страницы
site.ru/ЧПУ-под-параметр-2
site.ru/ЧПУ-под-параметр-n
И ставлю на них 301 редиректы.
Это верное решение?
Правильно понимаю, что сделав запись в robots
смысла от моего редиректа не будет?