- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Приветствую!
Помогите решить проблему - в панеле Я.Вебмастер появилось сообщение о том, что сайт полностью запрещен к индексации в файле robots.txt. Проверка в панеле показывает, что нужные страницы открыты для индексации. Однако, сообщение о том, что сайт запрещен к индексации не пропадает и сегодня вылетело огромное количество страниц с поиска.
Подскажите, что не так в файле.
Сайт на OpenCart.
Заранее спасибо!
Всем привет :)
Нужно запретить от индексации несколько языковых локализаций в роботсе.
ЮРЛ'ы имеем вида:
site.ru/?lang=en
site.ru/?lang=de
site.ru/?lang=ru
Кто сталкивался, кто знает? Спасибо.
User-agent: *
Disallow: /?lang
Всё просто
User-agent: *
Disallow: /?lang
Всё просто
Извиняюсь за глупый вопрос, но чтобы окончательно, т.е.:
User-agent: *
Disallow: /?lang=en
Disallow: /?lang=de
Я правильно понял?)
Т.к. мне не ответили - ещё раз спрошу, может кто потратит 1 минуту своего времени чтобы помочь.
Как сделатьправильно без повторений агента, но с сохранением смысла код:
СЕЙЧАС:
# Added by SEO Ultimate's Link Mask Generator module
User-agent: *
Disallow: /go/
# End Link Mask Generator output
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Как объединить и лишний Агент выкинуть?
Disallow: /?lang
Всё просто
Всё что дальше Lang будет закрываться, Не нужно писать 100 раз разных языков
По поводу агентов, для чего вы это пытаетесь сделать ?
Всё что дальше Lang будет закрываться, Не нужно писать 100 раз разных языков
По поводу агентов, для чего вы это пытаетесь сделать ?
В Яндекс вебмастере пишет рекомендацию что лучше повтор Агента убрать. На индексацию пока никак не влияет, но всё же.
Полезно.спасибо хд))
Подскажите, что делать, если Яндекс.бот дидосит сайт несколько раз в минуту вот такими запросами:
IP меняются, но все принадлежат Яндексу.
Ответ от саппорта яндекса: Чтобы робот не посещал такие страницы, лучше установить запрет в Вашем robots.txt, например, вида "Disallow: *page*page*", такие запросы прекратятся в течение суток.
Мой robots.txt
Прошла неделя, бот продолжает долбить. Сейчас я его временно забанил через .htaccess
Что можно сделать, подскажите? и в чем причина такой странной активности?
geelv1, например сделать правило:
Disallow: /?
например:
User-agent: Yandex
Disallow: /?
Crawl-delay: 180
при условии что по /?id= нет важных страниц) ну или как сказали в помощи яндекса, тогда:
User-agent: Yandex
Disallow: /*page*page*
Crawl-delay: 180
---------- Добавлено 16.05.2016 в 15:39 ----------
User-agent: Yandex Crawl-delay: 180 User-agent: * Disallow: *page*page*
Бред, по User-Agent'у Яндекса нет никаких запретов.