- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт на вордпрессе. Пытаюсь закрыть индексацию страниц с тегами с помощью файла роботс.тхт
User-agent: Yandex
Disallow:/tag/
Вроде все делаю правильно, перепробовал разные варианты - все равно анализатор в вебмастере пишет, что такие урлы как /tag/alivemax разрешены. В чем проблема??? Заранее спасибо.
так думаю правильнее будет.
User-agent: Yandex
Disallow: /tag/*
это чпу ссылка же наверно?
> User-agent: Yandex
Disallow: /tag/*
Так тоже не работает. Может проблемы в самом анализаторе. Читал на блогах, что именно так и надо писать.
> это чпу ссылка же наверно?
Ссылки ЧПУ настраиваются вроде только для записей и страниц, а это стандартные для вордпресса.
ТС а вы не думали, что яндекс отбрасывает заблокированные странички в роботсе после апов? У меня лично так было! Только после нескольких апов были отсеяны ненужные странички(тоже теги закрывал) и закрыл:
Disallow: /tag/
закрывал правда для всех ПС! (=
Вроде все делаю правильно, перепробовал разные варианты - все равно анализатор в вебмастере пишет, что такие урлы как /tag/alivemax разрешены. В чем проблема??? Заранее спасибо.
User-agent: Yandex
Disallow: /tag/
Проверь какие урл вводишь (с ццц, без ццц).
SMM, звезда в конце - это бестолковость.
Проверь какие урл вводишь (с ццц, без ццц).
В роботсе прописан без www, соответственно если вводить с www, то пишет, что "этот URL не принадлежит вашему домену"
ТС а вы не думали, что яндекс отбрасывает заблокированные странички в роботсе после апов? У меня лично так было! Только после нескольких апов были отсеяны ненужные странички(тоже теги закрывал) и закрыл:
Мне тоже кажется что должно сработать, вот только раньше анализатор robots.txt от яндекса показывал сразу, что страницы будут исключены, сейчас не показывает. Наверное, стоит написать в службу поддержки, спросить что к чему.
Andreyolex, как вариант, я однажды отправлял знакомому текст для его robots.txt напечатав его в аське. Знакомый скопировал его и вставил в свой robots.txt. При этом внешне всё было правильно, но оказалось, что знаки перевода строки были какие-то нестандартные и Яндекс такой robots.txt не воспринимал правильно.
Disallow: /tag/
Проверка тут показывает, что всё правильно:
User-agent: Yandex
Disallow: /tag/*
звезда по умолчанию добавляется
tag - это корневой?
тогда Disallow: /tag
без всяких звездочек
Написал в техподдержку - вопрос решился, сказали что все дерективы для Яндекса надо писать в одном столбике, то есть и закрытие директорий и определение главного адреса сайта (с www или без). Типа:
User-agent: Yandex
Disallow:/tag/
Host: site.ru
Хотя еще до этого ответа перенес запрет на индексирование в начало файла и все заработало. Сейчас роботс.тхт имеет такой вид.
User-agent: Yandex
Disallow:/tag/
User-agent: Yandex
Disallow:
Host: site.ru