- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сделал роботс, чтобы гугл не индексировал сайт, а он всё равно индексирует и с каждым днём всё больше страниц в индексе.
Disallow: /
Что я сделал не так?
попробуйте так:
User-agent: Googlebot*
Disallow: /
Причём я потом зашёл в панель сайтов гугла и проверил действие моего правила. Оно правильно работает, т.е. запрещены страницы к индексации.
А ещё самое странное, что титлы в поиске гугла не совпадают с моими, и вообще таких слов нет на моём сайте.
Выдаёт что-то типа: "Бла-бла - Поиск книг в интернет-магазинах". И без сохранённой копии.
User-agent: Adsbot-Google
Disallow: /
User-agent: Googlebot
Disallow: /
User-agent: Mediapartners-Google
Disallow: /
Добавьте, попробуйте...
1ncom1ng, тогда уж лучше одной строкой:
User-agent: *Google*
Спасибо, не знал про такой синтаксис...у меня, например, при подобной задаче отрабатывался только так 🚬
У меня почти такая же проблема. Для индексации в роботе запретила большую часть сайта, а в ликах все равно пока показывает. Но был уже опыт, что нужно подождать пока, по-видимому, кэш Гугла очиститься.
Кстати, у меня аналогичная проблема.
Прописывал так
User-agent: Googlebot
Disallow: /
Будем тоже пробовать предложенные варианты.
Спасибо