- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Запутался в роботсе и значениях /* и /$
Помогите разобраться.
Есть такие страницы.
1) https://rybabeztrusov.ru/categories/voblery
2) https://rybabeztrusov.ru/categories/voblery/bug-minnow-20mr
3) https://rybabeztrusov.ru/categories/voblery/fleshback-100sp
3) https://rybabeztrusov.ru/categories/voblery/tag/voblery-anglers-republic
4) https://rybabeztrusov.ru/categories/voblery/tag/voblery-anglers-republic/bug-minnow-20mr
5) https://rybabeztrusov.ru/categories/voblery/tag/voblery-anglers-republic/fleshback-100sp
Нужно чтобы:
1.индексировался
2. НЕТ
3. НЕТ
4.индексировался
5.индексировался
6.индексировался
Как правильно прописать в робостсе?
disallow: /categories/voblery/bug-minnow-20mr
disallow: /categories/voblery/fleshback-100sp
или так
disallow: /voblery/bug-minnow-20mr
disallow: /voblery/fleshback-100sp
Проблема в том, что их таких около 2000 страниц будет.
Придётся каждую в роботс писать?
Если добавите в урл дополнительный атрибут любой
Например
/categories/voblery/qwerty/bug-minnow-20mr
/categories/voblery/bug-minnow-20mr/qwerty
и соот-но
disallow: *qwerty*
тогда он увы добавится и в варианты 1,4,5,6 А они нужны
А что в advantshop нет возможности изменить урл, только для определенных страниц?
Больше к сожалению не знаю чем помочь.
Можно добавить meta robots, но это трудозатратно.
Эти страницы создаются в сео-фильтре, который не входит в стандартный функционал цмс
как вариант,
disallow: /bug-minnow-20mr
...
allow: *tag*
Но опять же будет большой роботс.
---------- Добавлено 10.04.2018 в 11:58 ----------
Я так смотрю у Вас внутренние через tag сделаны
Тогда
disallow: /voblery*
...
allow: /tag*
а 1 тогда не запретится?
Точно
disallow: /voblery*
...
allow: /voblery$
allow: /tag*
вот что тех под. цмс ответили
Если указать в роботе таким образом
disallow: /voblery*
allow: /voblery$
allow: /tag*
то будет зависеть от поисковой системы, какая директива disallow или allow будет принята в приоритете.
Если директива allow в приоритете, то таким образом можно прописать в роботе.
Но если disallow, то нет возможности одновременно закрыть от индексации
2) https://rybabeztrusov.ru/categories/voblery/bug-minnow-20mr
3) https://rybabeztrusov.ru/categories/voblery/fleshback-100sp
и открыть
1) https://rybabeztrusov.ru/categories/voblery
4) https://rybabeztrusov.ru/categories/voblery/tag/voblery-anglers-republic
5) https://rybabeztrusov.ru/categories/voblery/tag/voblery-anglers-republic/bug-minnow-20mr
6) https://rybabeztrusov.ru/categories/voblery/tag/voblery-anglers-republic/fleshback-100sp
Можно только закрыть таким образом disallow: /voblery*
---------- Добавлено 10.04.2018 в 14:03 ----------
😕 и как быть...