- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В роботсе сайта указано, что определенные директории индексировать не нужно, а он все равно их индексирует. Что делать?
тоже наблюдаю подобное, вылезли страницы, закрытые в роботсе...
вылезли страницы, закрытые в роботсе
В сниппете видно что-нибудь из содержания страницы? Есть сохраненная копия?
Да уже с пол года Гугл игнорирует роботс, закрыл один раз по неопытности сайт от индексации, яша сразу из индекса выкинул а гугль так и продолжал индексировать....
Страницы индексируются, но не участвуют в поиске.
Страницы индексируются, но не участвуют в поиске.
аха, а потом песок... Уже проходил такое :( Сделал сайт на движке старого сайта, закрыл роботсом и писать...
Такое впечатление, что Гугл прям ожидает, что если есть домен - знач контент можно индексировать, игнорируя роботс. Согласитесь, что странно, когда даже по уник тексту Гугл тебя отображает не на первых местах. Точно такой же, сайт, но залитый сразу на фтп (а не переделанный с надеждой на то, что роботс спасет) "влетел" в индекс и без единой внешней по куче НЧ запросов попал в ТОП-5...
Leo Craft, robots в студию.
у меня не игнорирует, забыл поставить запрет в роботс, гугл сожрал 800 страниц, увидел, поставил запрет, через неделю осталось 30
Гугл mu_duck насчёт этой фишки, весь мусор в индексе хранит. Есть ссылки на этот раздел, нету ссылок, закрыт раздел в роботсе или мета-тегами - гуглу плевать. Дубли страниц, страницы с ошибками - всё гребёт в кучу. За что люблю Яшу, так это за его чистоту, в том плане, что весь хлам выкидывает махом. А гугел насобирает гавнеца, а потом, как сказал чел чуть выше, нормальные страницы в песочницу кидает.
Проиндексирована груда страниц запрещённых в роботсе и имеющих в коде <meta name="robots" content="noindex,nofollow" /> (не уник)
Посетителей с гугла почти нет :(
Повторю свой вопрос:
В сниппете видно что-нибудь из содержания страницы? Есть сохраненная копия?