- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую. Никак не могу найти общий язык с гуглом: в индексе висит куча ненужных страниц - админка, внутренние папки, теги и т.п., хотя все это закрыто нофоллоу и запрещено в роботс.тхт. Не знаю, что и делать. Как только не извращался с роботсом, смотрел на буржуйских блогах, в итоге сейчас он имеет такой вид. Вот сам сайт. Есть ли у кого-нибудь опыт по решению подобных проблем? Спасибо.
Не видать, что там что-то закрыто в nofollow. На страницы тэгов есть и ссылки, и сами они не закрыты.
Внутренние папки — NotCaptcha либо криво стояла, либо сама кривая. Куча страниц, которые она наплодила, выдают код 302 вместо 404.
В общем, надо в порядок блог привести (в том числе шаблон валидным сделать), закрыть мусор через htaccess.
А с таким robots.txt что делать я не знаю... У меня его просто не бывает.
Спасибо!
Что вы имеете в виду? Не совсем понял.
В любом случае упоминать два раза инструкцию
не нужно
На морде — 69 ошибок, на одной из внутренних — 130.
Это может влиять на индексацию, так как GoogleBot не исправляет ошибки в HTML, в отличие от современных браузеров.
Вот это да. Спасибо, пошел чистить.
User-agent: Yandex
не нужно
Спасибо, поправлю.
На морде — 69 ошибок, на одной из внутренних — 130.
Это может влиять на индексацию, так как GoogleBot не исправляет ошибки в HTML, в отличие от современных браузеров.
Валидатор это несомненно круто, однако http://validator.w3.org/check?uri=www.google.com&charset=%28detect+automatically%29&doctype=Inline&group=0
Вот так вот ;)
Хехе :) Надеюсь, у него хватит ума себя не парсить. А то у бедняги хранилища не хватит.
http://greencoma.ru/wp-content/plugins/wp-notcaptcha/lib/notcaptcha.php?i=2&r=1274688148
noindex в метатегах нет, в роботсе "/wp-content" от Яндекса - закрыто, от Гугля - нет. Так какие претензии к Гуглю?
Он гордится тем, что у него хватает мощностей индексировать всё, что можно (в отличие от сами знаете кого), только он эти страницы в выдаче на последних местах будет показывать, не переживайте :)
Деректива Host у Вас не будет работать.
Ее, кстати, сейчас нету, даже папки такой нет. Уже и не помню, когда удалил. А гугл до сих пор видит.