- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Имею на своем сайте статистику учета поисковых роботок - кто и сколько страниц качнул. Довольно прожорлив оказался Yahoo. Вот подумываю ему ограничить индексацию всего, кроме главной страницы. Как это сделать?
Я вообще его забанил ;) Из-за форума.
Disallow: /
texnikru, учитесь пользоваться поиском. На форуме уже сотни раз на этот вопрос отвечали.
/ru/forum/213771+Slurp
/ru/forum/216264+Slurp
я хочу разрешить индексацию только главной страницы с какой угодно частотой. Вот только не уверен, что конструкция будет работать:
User agent: Slurp
Disallow: *
Allow: /
Что скажите?
поставьте Crawl-delay. Например,
где 5 - число секунд через которое делать обращения
Allow: /
Вам срочно читать спецификацию robots.txt
Вам срочно читать спецификацию robots.txt
Она давно неактульна. Все поисковые роботы давно обзавелись своими собственными инструкциями. Включая /allow
См. например http://help.yandex.ru/webmaster/?id=996567
Буквально только-что Платон Щукин прислал решение:
User-Agent: Slurp
Allow: /$
Disallow: /
...мож кому еще пригодиться!