- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ДО индексации сайта составил и залил роботс.тхт на сайт
гугл его обнаружил и он появился в панели вебмастера на второй день после создания (в панели все строки файла отображались верно, ни одной не было пропущено) я думал, что все нормально
что имеем на сегодняшний день - гугл полностью игнорирует мой роботс, гуляет по запрещенным страницам, ВЫКЛАДЫВАЕт их в индекс ДЕСЯТКАМИ. при этом вместо описания страницы стоит вот это "Описание веб-страницы недоступно из-за ограничений в файле robots.txt."
то есть он ЗНАЕТ, что я запрещаю эти страницы к поиску, но при этом с радостью их в этот поиск выкладывает, и ладно бы одну страничку случайно, но десятками..
как с этим бороться вообще?
Удалять через ВМТ, может второй раз не полезет.
а если просто ждать, он их удалит?
---------- Добавлено 21.08.2012 в 21:17 ----------
в гугл вебмастере есть функция просмотра страниц "глазами гуглбота"
туда забиваю заблокированные страницы и...Страницу не удалось просканировать, так как она заблокирована с помощью robots.txt. Подробную информацию см. в статье Справочного центра о robots.txt.
ну так каког ж черта он их выкладывает, спрашивается..
---------- Добавлено 21.08.2012 в 21:21 ----------
вообще есть такая мысль
что я пока заливал сайт, доработки последние на нем делал, (и пока роботса еще не было) гугл успел зайти и просканировать сайт, и теперь эти страницы выкладывает. но это был ПЕРВЫЙ день регистрации домена, и я его никуда не добавлял. но гугл возможно настолько быстрым бывает..
в таком случае просто ждать? если он их до появления роботса закачал, может поэтому и выкладывает, и скоро удалит как поймет что все же они запрещены?
ну так каког ж черта он их выкладывает, спрашивается..
Не так давно в обсуждениях было такое
В том же посте решение от гугла
ну у меня другая ситуация похоже
он просто шустро успел сайт просканировать, до того как я роботс залил
(я выше описал ситуацию)
в таком случае мне просто подождать? или лучше запросы на удаление из поиска им отправлять?
ну у меня другая ситуация похоже
Конечно другая.. по ссылке на английском:
что в корне отличается от Вашего
при этом вместо описания страницы стоит вот это "Описание веб-страницы недоступно из-за ограничений в файле robots.txt."
Речь о том, что страницы, запрещённые в robots.txt в индексе будут висеть. Рекомендую ещё разок почитать.
поясните пожалуйста в чем отличие между
и
учитывая, что это одна и та же фраза просто на разных языках?
webmbilo, уже писал. очень часто возникает ситуация что несмотря на наличие в роботс запрета на сканирование бот добавляет страницы в ПС. Это происходит по разным причинам. Главная как я понял есть минимум два бота один пробегает собирает ссылки, второй уже бегает по сайту. Что делать? Поставить в страницу noindex как и писали выше и удалить из роботс запрет на индексацию. Бот придет просканирует страницу увидит запрет на индексацию и выкинет ее из индекса. Это работает для бота гугла как с яшей я незнаю.
ну у меня другая ситуация похоже
он просто шустро успел сайт просканировать, до того как я роботс залил
(я выше описал ситуацию)
в таком случае мне просто подождать? или лучше запросы на удаление из поиска им отправлять?
Была подобная ситуация. Страниц в индексе у Яши 3к, а у Гугла было 27к. Дублей немеряно (генерились то компонентами то хрен знает чем и как их Гуглбот находил). Все было пофиг, пока не начался весь этот зверинец с Пандами и Пингвинами. Сейчас вот тоже борюсь с этим всем. Написал Роботс нормально, а также много удаляю руками через ВМТ (потому что по куску текста с раздела дубли всплываю выше. Потому смотрите сами. Ждать пока он их сам выкинет из индекса наверное будет очень долго.
это страница вида site.ru/article/feed/
она по сути без контента сама
ее через google reader или что-то подобное надо открывать чтобы прочитать
на нее я даже не знаю как поставить noindex
гугл часто игнорит роботс, мало того, индексирует его с большой охотой, стоит только дать на него ссылку.