- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Нужно закрыть в роботс 450 страниц брендов, где мало товаров. Писать для каждого Юзер агент накладно наверное. Может можно написать сразу для User-agent: * ?
Можно наверное просто удалить бренды, но тогда:
1. Долго. Это не список.
2. При импорте нового товара эти бренды могут снова возникнуть. Не пересматривать же прайс из 40.000 строк на предмет наличия какого то бренда и сколько у него товаров.
PS. Прочел, что
Директива User-agent: * в файле robots.txt указывает, что все правила актуальны для всех поисковых роботов (за исключением тех, для кого составлены «персональные» списки). 4Дык если и Яндексу и Гуглу идут одни и те же строки, то не проще тогда писать все только для User-agent: * ?
Нужно закрыть в роботс 450 страниц брендов, где мало товаров.
не нужно
Почему? Посадочные же страницы. А там товара до 3. Я их отсеял. 4 и выше уже оставил. Модуль автоматом закрывает от индексации только если ноль будет. разве это не та же страница с минимум товара, как и в фильтрах. Суть же одна.
Почему? Посадочные же страницы. А там товара до 3. Я их отсеял. 4 и выше уже оставил. Модуль автоматом закрывает от индексации только если ноль будет. разве это не та же страница с минимум товара, как и в фильтрах. Суть же одна.
Нужно закрыть в роботс 450 страниц брендов, где мало товаров. Писать для каждого Юзер агент накладно наверное. Может можно написать сразу для User-agent: * ?
Может быть проще общее правило для страниц брендов в meta - noindex, follow? А потом для тех, где нужно открыть/ать индексацию?
Может быть проще общее правило для страниц брендов в meta - noindex, follow? А потом для тех, где нужно открыть/ать индексацию?
Может и да. Но я не силен в этих вещах, совсем не разбираюсь и программировать не могу. Тем более какое общее правило, если только часть надо закрыть.
Ну вообще то конечно модуль нужно купить какой то, который упрощает этот и другие моменты. Но пока его нет, да и задача пока это разовая. Ради 1 раза жалко покупать.
если у всех на рынке три товара и кластер такой есть и есть спрос на него тогда ок, во всех остальных случаях - удалить и забыть
Спорно. )
Нужно закрыть в роботс 450 страниц брендов, где мало товаров. Писать для каждого Юзер агент накладно наверное. Может можно написать сразу для User-agent: * ?
Можно наверное просто удалить бренды, но тогда:
1. Долго. Это не список.
2. При импорте нового товара эти бренды могут снова возникнуть. Не пересматривать же прайс из 40.000 строк на предмет наличия какого то бренда и сколько у него товаров.
PS. Прочел, что
Директива User-agent: * в файле robots.txt указывает, что все правила актуальны для всех поисковых роботов (за исключением тех, для кого составлены «персональные» списки). 4Дык если и Яндексу и Гуглу идут одни и те же строки, то не проще тогда писать все только для User-agent: * ?
Соберите ссылки и сделайте запрос в чат got, он вам составит роботс с запретом на эти ссылки
Хрень какая то, какой роботс тут вообще?
Найми программиста который создать правило на страницах бренда, если меньше 4х товаров на странице, то вывести в meta noindex.
Эта фигня пишется на пару строк, а роботс оставьте в покое!
В справке яндекса сказано:
Роботы Яндекса корректно обрабатывают robots.txt, если:Размер файла не превышает 500 КБ
С количеством строк 450 файл не один мегабайт будет весить. И роботы его тупо открывать не будут.