Главная
Статьи
Форум
Реклама
Нажмите
/
для поиска
Поиск
Войти
Регистрация
Вышел новый Яндекс Браузер с YandexGPT и YandexART
И новым дизайном
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
vados_dp
Рейтинг
0
Регистрация
26.01.2014
Топики
1
Комментарии
2
Статьи
0
Как в гугл попали страницы закрытые в роботс?
26 января 2014, 17:31
DjekLondon:
robots.txt - это фйл с рекомендациями, а не с обязательными правилами индексации.
вот мета тег Noindex обязателен
Всем спасибо. Короче курить мне еще и курить ету тему=)
Как в гугл попали страницы закрытые в роботс?
26 января 2014, 17:07
GKC:
1) зачем вторая строка?
2) ИМХО, оба неверны, я сделал так:
User-agent: *
Crawl-delay: 10
# Directories
Disallow: /includes/
Disallow: /misc/
И все равно гугл может найти, а может пометку "запрещено к индексации высветить" - произвол у них там )
Спасибо, попробую=) Можно еще вопрос?=)