- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Смысл такой, запретить к индексации весь сайт, кроме главной страницы.
И какой запрос необходимо будет прописать в панеле яндекс.вебмастер для того что бы эти страницы удалились из него?
Смысл такой, запретить к индексации весь сайт, кроме главной страницы.
Allow: index.html
Disallow: /
Вроде так.
Почитать можно тут.
Если страницы динамические и используется файл index.php (например, index.php?id=123),
то нужно ещё $ добавить ...
User-agent: Yandex
Allow: index.php$
Disallow: /
Если страницы динамические и используется файл index.php (например, index.php?id=123),
то нужно ещё $ добавить ...
Страницы в первоначальном виде - динамические, но используется ЧПУ
Правильно будет похоже так (с учетом расширений http://help.yandex.ru/webmaster/?id=996567):
Удалить, http://webmaster.yandex.ru/delurl.xml, можно целыми каталогами, если сработает.
Либо программку написать, чтобы сразу пачками грузить urlы и в http://webmaster.yandex.ru/delurl.xml.
Королёва, если не знаете, то не пишите. Роботс только запрещает. Команды allow нету.
А.. тут все трое умные в топике... (((
Королёва, если не знаете, то не пишите. Роботс только запрещает. Команды allow нету.
А.. тут все трое умные в топике... (((
Вы не правы. Прочитайте как раз ту ссылку.
Вот цитата:
"Примечание:
Недопустимо наличие пустых переводов строки между директивами 'User-agent' и 'Disallow' ('Allow'), а также между самими 'Disallow' ('Allow') директивами.
Кроме того, в соответствии со стандартом перед каждой директивой 'User-agent' рекомендуется вставлять пустой перевод строки.
Символ '#' предназначен для описания комментариев. Все, что находится после этого символа и до первого перевода строки не учитывается.
Чтобы разрешить доступ робота к некоторым частям сайта или сайту целиком, используйте директиву 'Allow'. Примеры:
User-agent: Yandex
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц начинающихся с '/cgi-bin'"
Вот ссылка: http://help.yandex.ru/webmaster/?id=996567#996571
Команды allow нету
отлично сказано!
Похоже вот это http://help.yandex.ru/webmaster/?id=996567 на яшке пишут те, кто не знают как работают их роботы!
6666, если несложно, то можно прокоментировать ваш же ответ ;)
Королёва, если не знаете, то не пишите. Роботс только запрещает. Команды allow нету.
6666, отстали от жизни? Бывает...
6666, если несложно, то можно прокоментировать ваш же ответ
Посмотрим, посмотрим... Хватит ли мужества у 6666 расписаться в своем незнании. :)
Королёва, отстал, отстал. )))