- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Решил попробовать сделать фильтры индексируемыми со статическими страницами + каноническими. У каждой будут свои мета теги H1, дискрипшин, тайтл (естественно до определенного кол-ва срезов). Хотелось бы узнать, для таких страниц лучше сгенерировать автотекст с параметрами фильтрации, либо оставить их пустыми? Да и вообще есть ли смысл делать большое количество срезов. Как на это отреагируют поисковики?
Спасибо
Да и вообще есть ли смысл делать большое количество срезов. Как на это отреагируют поисковики?
Нужно: 1) Проработать логику формирования URL, заголовков и мета-тегов. 2) Закрыть от индексации все что выше суммы из 3 характеристик например. 3) Закрыть от индексации изначально мусорные характеристики. Из минусов: 1) Много страниц с дублирующимися товарами. 2) Много мусорных страниц под которые нет запросов. 3) Могут выкинуть из индекса за некачественные страницы. 4) Могут быть и проблемы как раз со страницами которые закрыты от индексации, но под них есть запросы. 5) Может сбиваться релевантность в поиске, например по запросу "белое зеркало" будет показываться "белое зеркало с рисунком" и т.д. В любом случае, если все грамотно сделать, то трафик будет. Но я лично за то, чтобы закрывать от индексации фильтры и делать теги по семантике. Дольше конечно, но зато будут 100% целевые страницы. Это все из наблюдений за крупным сайтом с несколькими сотнями тысяч страниц в индексе. По поводу текстов, лучше писать вручную на конкурентных страницах, на остальных не писать.
Делайте конечно, если не взлетит, закроете от индексации часть страниц.
Если можете сгенерировать качественный текст, то конечно генерируйте. Один паттерн на текстовку=1 раздел.
Путь вы выбрали скользкий, но прибыльный при грамотной организации.
Решил попробовать сделать фильтры индексируемыми со статическими страницами + каноническими. У каждой будут свои мета теги H1, дискрипшин, тайтл (естественно до определенного кол-ва срезов). Хотелось бы узнать, для таких страниц лучше сгенерировать автотекст с параметрами фильтрации, либо оставить их пустыми? Да и вообще есть ли смысл делать большое количество срезов. Как на это отреагируют поисковики?
Спасибо
- Подбираете под категорию семантику
- На ее основе группируете ключи фильтрам
- Каждый фильтр - это отдельный ЧПУ урл.
- У каждого фильтра уникальный title, , description, H1,H2, текст. Можно сделать шаблон и подставлять туда ввиде переменных подвигаемые ключи фильтра
- На страницах пагинации фильтров не показываете текст с первой страницы фильтра. Уникализируете title, description и H1 добавлением "страница №"
В итоге имеете рост трафика на такие ЧПУ фильтры
Для примера реализации посмотрите любой топовый ИМ например тут https://yandex.ru/search/?text=%D1%81%D0%BC%D0%B0%D1%80%D1%82%D1%84%D0%BE%D0%BD%205%20gb%20%D0%BA%D1%83%D0%BF%D0%B8%D1%82%D1%8C&lr=213&clid=2186618
Примечание (из личного опыта): Яндекс лучше дает трафик на такие страницы, чем Google.
Индексируемые фильтры - гуд. Автотекст трафика не даст, но индексироваться будет. Ранжируется слабо.
1)Все отлично. В голову пришла интересная идея ( или глупая... пока не разобрался).
А если в индексируемые фильтры добавить еще и самые крупные города? Стоит или нет?
2)И интересно как быть с брендами. Если это самое основное в магазине. Например есть ли смысл зарегистрировать домен типа original.ru и делать поддомены dior.originl.ru chanel.original.ru и так дал... или смысла нет и просто как и раньше пользовать категории.
3) И стоит ли прокачиваться поддоменами с определением гео по ip и редиректами.
Если кто на опыте - прошу отписаться... Если нет желания сюда, давайте в ЛС пообщаемся :)
Было бы очень интересно порассуждать и повнедрять немного)