- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте друзья. Озадачился написанием правильного роботса для крупного проекта - симбиоз 3х движков: WP+phpBB+ModX. Каждый движок отвечает за свою часть проекта. Проблем с индексацией не наблюдаю в данный момент. Отдаю всем поисковикам одни и те же страницы.
Роботс.тхт содержит 82 запрета на доступ роботу. Это не считая директивы Host и Clean-param для Яшки и Sitemap для Гугла.
В данный момент роботс прописан для всех поисковых машин. Подскажите пожалуйста, стоит ли его дробить на 3 части: для Гугла, для Яшки, для остальных ?
Спасибо.
P.S. Гуглил. Но так и не смог найти 100% обоснования, что надо делать так, а не иначе, исключая те моменты, когда надо яшке скормить одну часть сайта, а гуглу другую ...
можно и заморочиться, но я не стал бы
P.S. Гуглил. Но так и не смог найти 100% обоснования, что надо делать так, а не иначе, исключая те моменты, когда надо яшке скормить одну часть сайта, а гуглу другую ...
Помимо этого есть директивы, которые не понимают разные ПС. Например, clean-param весьма крутая штука, но Google ее не понимает. Поэтому можно сделать специально под Яндекс продублированный блок директив + clean-param, если он необходим.
Ребят, подскажите.
Есть страницы, который заканчиваются на
"https://site.ru/product/category/type/product/buy",
их порядка 100 штук, как их безболезненно закрыть в роботс?
Так?
При этом страницы вида: "https://site.ru/product/category/type/product"
нормально будут индексироваться?
Подскажите пожалуйста, стоит ли его дробить на 3 части: для Гугла, для Яшки, для остальных ?
Если правила общие - не нужно.
Так?
Да.
Все окей, тулза от Яши подтвердила работоспособность данного роботс.
Я так понимаю, что Гугль может проигнорировать сию рекомендацию?
Я так понимаю, что Гугль может проигнорировать сию рекомендацию?
Гугл понимает спецсимвол *, работать будет одинаково
https://support.google.com/webmasters/answer/6062596?hl=ru&ref_topic=6061961