- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброе время суток!
Последнее время меня Гугл просто шокирует, индексирует директории закрытые в Роботсе, а из индекса выкидывает страницы с уникальным контентом.
При анализе robots.txt через вебмастер Гугла, результаты проверки соответствуют директивам в Роботсе, но на деле все наоборот....
К примеру,
User-agent: *
Disallow: /go/*
Disallow: /tag/*
Через анализ Роботса, все ОК - говорит запрещены.
НО В ИНДЕКСЕ все эти директории есть...
Что заметил:
Делается сайт, составляется Роботс. Гуглу на него (роботс) плевать, и он начинает сжирать все страницы сайта, в том числе и редиректы!!!!!
Проходит около года, Гугла начинает выворачивать (видимо от обжорства), и он начинает лихими темпами выкидывать все из индекса, оставляя 30-60% уникальных страниц. Остальные уникальные страницы вместе с закрытыми директориями в роботсе вылетают из индекса...
Кто сталкивался? Как бороться? Он мне надоел (((
Замечал такую проблему. Покажите сайт (в ЛС?), хочется посмотреть более детально.
у меня в вебмастере - "странички исключены"
У меня та же история описанная вами 1 в 1. Тысячи страниц хлама, запрещенные в роботсе но присутствующие в индексе гугла :(.
Может указать конкретно что запрет именно для гугла? Типа: User-agent: Googlebot
Не пробовали?
У меня та же история описанная вами 1 в 1. Тысячи страниц хлама, запрещенные в роботсе но присутствующие в индексе гугла :(.
Может указать конкретно что запрет именно для гугла? Типа: User-agent: Googlebot
Не пробовали?
Я такое пробовал. В большинстве случаев не помогало. Помогло только исключение из поиска и индексирования средствами CMS.
Да гугл вообще неадекватный, у меня все запрещенное к индексации внаглую внес в индекс!
А мне кажется что правильно так
User-agent: *
Disallow: /go/
Disallow: /tag/
На практике заметил, что недостаточно закрывать только в роботсе, нужно обязательно ставить нофоллов в ссылки на закрытые в роботсе страницы.
Получается, что робот заходит по ссылке на закрытую страницу, потом смотрит в роботс, видит, что она закрыта и уходит обратно. Есть мнение что он вообще смотрит пакет страниц, а потом уже сверяет урлы с роботс. Т.е. таким образом он еще тратит драгоценный лимит сканов для сайта.
Сколько у вас страниц в основном индексе?
Мой сайт гугл сначала полностью в индекс забросил, а сейчас потихоньку выплевывает то, что в роботс запрещено.
индексирует директории закрытые в Роботсе
Более, чем уверен, они были проиндексированы до создания robots.txt.
Мой совет — забыть про robots.txt навсегда и использовать .htaccess. И не нужно будет ничего вручную удалять.
нужно обязательно ставить нофоллов в ссылки на закрытые в роботсе страницы
Это смешно.
Приведите пример пожалуйста. Вот например у меня в индексе тысячи мусорных страниц типа сайт.ru/index2.php?option=com_content&бла-бла-бла
Как доказать гуглу что тут рыбы нет? :)