- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Умаялся уже )
Сайт - обычный Вордпресс сайт, каких-то наворотов нет.
Вот кусок кода из robots.txt
User-agent: *
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /tag
Disallow: /archive
Disallow: */trackback/
Disallow: */feed/
Однако при этом страницы такого типа все равно в индексе!
Просто Гугл для них пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. "
Как убрать их из индекса вообще?
... Вот кусок кода из robots.txt ...
- куска как бе мало, светите уж всё;
- в панели вебмастера гугла есть анализ robots.txt и проверка на доступность страниц для индексирования. что пишет для этих страниц?
- в панели вебмастера гугла есть фича для ручного удаления страниц(ы) из индекса. можно удалять по маске;
Однако при этом страницы такого типа все равно в индексе!
Просто Гугл для них пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. "
Все правильно. Но это бывает только на значимых страницах, всякий хлам все выдаваться не будет.
Как убрать их из индекса вообще?
Попробуйте добавить на этих страницах метатег robots= noindex
Умаялся уже )
Просто Гугл для них пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. "
Как убрать их из индекса вообще?
Давно в robots.txt их закрыл?
Если не ошибаюсь, он подобное только с новым аппом закроет в своей выдаче
User-agent: *
Allow: /wp-content/uploads/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /xmlrpc.php
Disallow: /template.html
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /tag
Disallow: /archive
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /?feed=
Disallow: /?s=
Disallow: /25
Disallow: /23
Disallow: /2008/06
Disallow: /2012/05
Disallow: */page/
Disallow: /page
Disallow: /author
Что страницы недоступны. Но они, тем не менее, есть. Просто без сниппета.
Да, но для этого необходимо либо удалить страницу физически (чтобы возвращало 404), либо поставить тэг noindex.
Как это сделать для страниц с урлом вида */page/* я не знаю
тут со слов обратите внимание смотрите - http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=93710 и общее http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=93708&topic=2370588&ctx=topic
мой роботс для wp
User-agent: Googlebot
Disallow: /xmlrpc.php
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Disallow: /*attachment
+ установлен плаг http://wordpress.org/extend/plugins/ultimate-noindex-nofollow-tool/
в рез - в индексе столько же стр сколько и в яндексе и только те стр которые нужны
sok3535, да, но у меня много страниц, которые ваш файл не затронет. Всякие там ****.ru/?cat=1
Дело, видимо, в том, что сайт очень старый (более 5 лет) и Вордпресс на него ставился чуть ли не самой первой версии. При обновлении все заглючило, было куча битых урлов и т.д. Все почистили, но в индексе Гугла осталось много мусора.
Огромное спасибо за подсказку с удалением страниц из индекса в панели WMT. Вроде как помогает - несколько страниц пропали.
и
При наличии на странице метатега noindex Google полностью исключает эту страницу из результатов поиска, даже если на нее ссылаются другие страницы.
плаг добавляет метатег на все нежелательные стр
sok3535, там нет урлов с trackback-ом. У меня их сейчас десятки. Гугл даже после запроса на удаление их не удаляет. Как быть?
Функцию трекбэков отключил, но страницы по прежнему доступны (301 редирект на статью)
Пример:
в индексе урл site.ru/postname/trackback/
его сниппет: Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее...
при переходе нас редиректит на site.ru/postname/