- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Там типа проверить можно. Не пробовал? (С)
Нет возможности проверить , т.к. не могу права на сайт подтвердить (проблемы с доступом через фтп)
Так будут индексироваться или нет? давно бы уже ответил))
Нет возможности проверить , т.к. не могу права на сайт подтвердить
1) Для использования этого сервиса не нужно никаких прав. Нужно только ваше желание.
2) Обе ссылки закрыты директивой Disallow: /*?
3) "Спецсимвол '*' означает любую (в том числе пустую) последовательность символов." - фтыкайте и медитируйте.
1) Для использования этого сервиса не нужно никаких прав. Нужно только ваше желание.
2) Обе ссылки закрыты директивой Disallow: /*?
3) "Спецсимвол '*' означает любую (в том числе пустую) последовательность символов." - фтыкайте и медитируйте.
Результат: разрешен
А говорите закрыты)
Disallow: /*? - это советуют почему то прописывать в роботсе вордпреса
Результат: разрешен
А говорите закрыты)
Ищите у себя ошибку. Ничего сами не можете.
User-agent: *
Disallow: /*?
http://www.site.ru/?page_id=1
Строка
1-2
User-agent: *
Disallow: /*?
Результаты проверки URL
URL Результат
http://www.site.ru/?page_id=1 запрещен правилом /*?*
Вы с дуба рухнули? Ищите у себя ошибку.
User-agent: *
Disallow: /*?
http://www.site.ru/?page_id=1
Ок, давайте на конкретном примере:
http://www.graden.su/?page_id=4
Заходим в http://webmaster.yandex.ru/robots.xml , вбиваем www.graden.su , в роботсе находим Disallow: /*?
Проверяем урл
http://www.graden.su/?page_id=4 - разрешен
Что я не так сделал?
Что я не так сделал?
Вы не видите для Яндекса отдельную секцию, в которой ничего не запрещено? Протрите глаза, она идет первой (и не без ошибок, она вообще пустая.).
Host: www.graden.su
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: /category/*/*
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Sitemap: http://www.graden.su/sitemap.xml
А строка Disallow: /*? идет во второй секции, она для всех остальных роботов кроме Яндекса.
Уберите нафиг секцию для Яндекса, она не нужна. Поставьте Host: в конец, она сработает и так.
www.graden.su
там для яндекса вообще никаких указаний нет, только зеркало и все.
Вы не видите для Яндекса отдельную секцию, в которой ничего не запрещено? Протрите глаза, она идет первой (и не без ошибок, она вообще пустая.).
А строка Disallow: /*? идет во второй секции, она для всех остальных роботов кроме Яндекса.
Уберите нафиг секцию для Яндекса, она не нужна. Поставьте Host: в конец, она сработает и так.
Выходит что Disallow: /*? в вордпресе прописывают те кто использует ЧПУ?
Alex-striker, у меня такой впечатление, что вы по-русски читаете, но ничего не понимаете. Вы привели цитату про одно, а спросили про совсем другое. Зачем? Это для меня загадка.
Я даже не уверен, что вы вообще понимаете, нужен ли вам robots.txt .
Disallow: /*? в вордпресе прописывают те кто использует ЧПУ
Вероятно, да. Можно запретить индексировать страницы, которых на сайте нет.
Вы попробуйте по-другому. Сейчас у вас ничего не запрещено. Перечислите примеры урлов, которые вы хотите запретить и напишите себе robots.txt с нуля.
Но дальнейшее демонстрирование того, что вы не читали help.yandex.ru, будет пресекаться, будут штрафы за флуд. Вы уже перевыполнили норму на две недели вперед.
Alex-striker, у меня такой впечатление, что вы по-русски читаете, но ничего не понимаете. Вы привели цитату про одно, а спросили про совсем другое. Зачем? Это для меня загадка.
Я даже не уверен, что вы вообще понимаете, нужен ли вам robots.txt .
:)
Если в кратце, то увидел в роботсе (который был, писал не я) строки Disallow: /*? , которые должны запрещать индексацию, посмотрел на других сайтах про ВП, почти всюду советуют прописывать в роботсе именно эти строки, в итоге запутался напрочь)
з.ы. Раздел называется "Любые вопросы от новичков", не надо сразу грозить штрафами, если увидели вопрос, который вам показался глупым.