- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не с религией все ок. Дайте ссылочку пожалуйста.
Наверное, твоя религия против того, чтобы ты вводил в поисковую строку Яндекса эти секретные слова: "robots.txt яндекс"?
Наверное, твоя религия против того, чтобы ты вводил в поисковую строку Яндекса эти секретные слова: "robots.txt яндекс"?
Спасибо. Религия и интеллект запрещает Яндексом пользоваться. Вы правы.
artool, Хорошо, спасибо большое за информацию.
artool, Хорошо, спасибо большое за информацию.
Пожалуйста :) Рад, если помог.
Все эксперименты с robots.txt можно проверять по ссылке, что я дал. В гугл-вебмастер тоже есть функция проверки правил индексации.
Возможна ли закрывать одиночные страницы по другому, а не например Disallow: /xmlrpc.php Почему то они не исчезают из выдачи.
Проверить мои слова можно здесь - http://webmaster.yandex.ru/robots.xml
В принципе, должна закрыться
Загрузил, только не понятно что оно должно было выдать после проверки. Ошибок не выдало.
Загрузил, только не понятно что оно должно было выдать после проверки. Ошибок не выдало.
запрещен правилом ********
или
разрешен
запрещен правилом ********
или
разрешен
выдает вот такое:
1-14
User-agent: Yandex
Disallow: /cgi-bin
...
Host: www.мойсайт. ru
47-47
Sitemap: http://мойсайт. ru/sitemap.xml
вот и все.
Чтобы закрыть xmlrpc.php от индексации в первую очередь нужно желание!
Разжёвываю и кладу в рот.
Первый сайт, который мне попался в поиске - api.drupal.ru, с ним и будем работать.
Идём по ссылке - http://webmaster.yandex.ru/robots.xml
Картина не изменилась, ответ тот же:
http://api.drupal.ru/api/file/xmlrpc.php разрешен (К индексации)
Результат проверки:
http://api.drupal.ru/api/file/xmlrpc.php запрещен правилом */xmlrpc.php
Можно ещё поэкспериментировать с другими страницами, которые вам нужно закрыть или открыть.
Самое главное - Добавляем в robots.txt на хостинге все изменения, которые нам необходимы.
На странице http://webmaster.yandex.ru/robots.xml вы не изменяете свой файл robots.txt, вы лишь проверяете как сработают те или иные правила в нём.
Итого - Мы закрыли от индексации страницу xmlrpc.php
Аминь :)
P.S. Процесс выпадания из индекса может растянуться на некоторое время, а можно и попробовать удалить в админке вебмастера, яндекс должен среагировать на запрет к индексации и в ближайшее время удалить страницу из индекса.
P.P.S. Как удалить страницу в панели вебмастера, разжёвывать не буду, читайте вот здесь - http://help.yandex.ru/webmaster/?id=995318
artool, спасибо, помогло.🙄