- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет!
Возник вопрос по фильтру который я использую. Делаю сайт http://ml.web5.lv/bu-avto, куплен фильтр который при фильтрации и создаёт чпу, и title,desciption, h1 с нужным ключом. По умолчанию, при фильтрации у него стоит noindex,nofollow, но это не проблема, так как на любой url созданный фильтром я могу посадить новую посадочную страничку, которая индексируется, только её нужно делать вручную.
Вопрос: Если я открою фильтр по умолчанию к индексации, не будет ли такого что он мне создаст мусорные страницы на подобии "Audi GL450", тоесть будет Марка "Audi", а модель от Мерседеса. Если создаст, то есть ли какой то разумный выход?
Включить индекс для фильтра это глупости - у вас будет миллион страниц сирот и не будет нормального индекса
А если к примеру сделать условия для индексации. К примеру индексировать только Марка+модель, а на самые частотные Марка+модель сделать посадочные.
А если к примеру сделать условия для индексации. К примеру индексировать только Марка+модель, а на самые частотные Марка+модель сделать посадочные.
вы должны сделать условие таким что все страницы были неиндексируемые кроме тех которые вы сделаете вручную с чпу и тегами - так называемые seo страницы фильтра ,
В модуле такая ситуация и есть как вы написали выше. Он 1 в 1 так и работает.
Я создал страницу, но к примеру Screaming Frog Spider её не видит, точнее видит если вбить в него точный URL. Для таких страниц в фильтре сделан Sitemap - http://ml.web5.lv/index.php?route=extension/feed/ocfilter_sitemap
Так правильно ли будет кинуть этот Sitemap в Search Console и всё? Просто смущает что без Sitemap робот не может найти этот url если вбить домен. Получается эти URL как бы в воздухе и не передают никакого веса. Как вариант можно сделать ссылки на эти странички.
В модуле такая ситуация и есть как вы написали выше. Он 1 в 1 так и работает.
Я создал страницу, но к примеру Screaming Frog Spider её не видит, точнее видит если вбить в него точный URL. Для таких страниц в фильтре сделан Sitemap - http://ml.web5.lv/index.php?route=extension/feed/ocfilter_sitemap
Так правильно ли будет кинуть этот Sitemap в Search Console и всё? Просто смущает что без Sitemap робот не может найти этот url если вбить домен.
зачем вам ос фильтр, возьмите нео сео, мега фильтр еще хорош
зачем вам ос фильтр, возьмите нео сео, мега фильтр еще хорош
Сначала показалось что он лучше всего удовлетворяет моим потребностям, но как глубже копнёшь, то уже не всё так хорошо.
Сначала показалось что он лучше всего удовлетворяет моим потребностям, но как глубже копнёшь, то уже не всё так хорошо.
само собой, ос фильтр урезка, когда то был еще фильтр про - но он заглох. Есть еще гибкий брейни , но проще купить неосео
А NeoSeo не даёт под себя делать)
Они конечно сами предлагают сделать, но у меня есть свой программист, а платить втридорога конторе не очень хочеться)
Проблема в контенте. Гугл с Яндексом бросятся индексировать тысячи страниц с фильтром и могут потом начать выкидывать нормальные страницы из-за повторяющегося и не уникального контента.
Ужас будет