- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Смысл такой, запретить к индексации весь сайт, кроме главной страницы.
И какой запрос необходимо будет прописать в панеле яндекс.вебмастер для того что бы эти страницы удалились из него?
Смысл такой, запретить к индексации весь сайт, кроме главной страницы.
Allow: index.html
Disallow: /
Вроде так.
Почитать можно тут.
Если страницы динамические и используется файл index.php (например, index.php?id=123),
то нужно ещё $ добавить ...
User-agent: Yandex
Allow: index.php$
Disallow: /
Если страницы динамические и используется файл index.php (например, index.php?id=123),
то нужно ещё $ добавить ...
Страницы в первоначальном виде - динамические, но используется ЧПУ
Правильно будет похоже так (с учетом расширений http://help.yandex.ru/webmaster/?id=996567):
Удалить, http://webmaster.yandex.ru/delurl.xml, можно целыми каталогами, если сработает.
Либо программку написать, чтобы сразу пачками грузить urlы и в http://webmaster.yandex.ru/delurl.xml.
Королёва, если не знаете, то не пишите. Роботс только запрещает. Команды allow нету.
А.. тут все трое умные в топике... (((
Королёва, если не знаете, то не пишите. Роботс только запрещает. Команды allow нету.
А.. тут все трое умные в топике... (((
Вы не правы. Прочитайте как раз ту ссылку.
Вот цитата:
"Примечание:
Недопустимо наличие пустых переводов строки между директивами 'User-agent' и 'Disallow' ('Allow'), а также между самими 'Disallow' ('Allow') директивами.
Кроме того, в соответствии со стандартом перед каждой директивой 'User-agent' рекомендуется вставлять пустой перевод строки.
Символ '#' предназначен для описания комментариев. Все, что находится после этого символа и до первого перевода строки не учитывается.
Чтобы разрешить доступ робота к некоторым частям сайта или сайту целиком, используйте директиву 'Allow'. Примеры:
User-agent: Yandex
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц начинающихся с '/cgi-bin'"
Вот ссылка: http://help.yandex.ru/webmaster/?id=996567#996571
Команды allow нету
отлично сказано!
Похоже вот это http://help.yandex.ru/webmaster/?id=996567 на яшке пишут те, кто не знают как работают их роботы!
6666, если несложно, то можно прокоментировать ваш же ответ ;)
Королёва, если не знаете, то не пишите. Роботс только запрещает. Команды allow нету.
6666, отстали от жизни? Бывает...
6666, если несложно, то можно прокоментировать ваш же ответ
Посмотрим, посмотрим... Хватит ли мужества у 6666 расписаться в своем незнании. :)
Королёва, отстал, отстал. )))