- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пришло письмо буквально такого содержания (вместе с таким кодом):
Добрый день!
</p>
<p style="margin-top: 1em">Уведомляем вас об изменениях в обработке директивы 'Allow' файла <a href="http://help.yandex.ru/webmaster/?id=996567">robots.txt</a>, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.</p>
<p style="margin-top: 1em">По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.</p>
<p style="margin-top: 1em">Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам. В этом вам поможет наша <a href="http://webmaster.yandex.ru/robots.xml">форма проверки robots.txt</a>.
</p>
<p style="margin-top: 1em">Подробнее об использовании директив вы можете прочитать в <a href="http://help.yandex.ru/webmaster/?id=996567#996571">Помощи</a>.
<p style="margin-top: 1em">
--<br>
С уважением,<br>
Яндекс.Вебмастер<br>
<a href="http://webmaster.yandex.ru">http://webmaster.yandex.ru</a>
</p>
<p style="margin-top: 1em">
ЭТО ПИСЬМО ОТПРАВЛЕНО ПОЧТОВЫМ РОБОТОМ, ПОЖАЛУЙСТА, НЕ ОТВЕЧАЙТЕ НА НЕГО.
</p>
Начну обсуждение с собственно кривости письма для вебмастеров. Там давно пора кого-нибудь поувольнять.
Письмо отправлено с домена yandex.ru
Мне пришло письмо с нормальным содержанием....
Уведомляем вас об изменениях в обработке директивы 'Allow' файла robots.txt, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.
По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.
Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам. В этом вам поможет наша форма проверки robots.txt.
Подробнее об использовании директив вы можете прочитать в Помощи.
Shlackbaum,
В таком же формате пришло. Был удивлен.
Интересно с какик это пор яндекс уже начал стандарты определять.
Интересно с какик это пор яндекс уже начал стандарты определять.
Это их внутренние стандарты :)
Просьба...ткните кто-нибудь в реальные стандарты...где сказано про использование Allow и Disallow вместе; про Disallow нашел, про Allow нет..
PS: письмо нормальное пришло.
--------------------
Нашел только это ->
Ниже примеры - сначала Allow потом Disallow, т.е. порядок написания имеет значение...
Сомневаюсь, что стоит переписывать свои роботсы по якобы "новым стандартам", пока оставил так как есть.
Да блин, щас у кого-то сайты под агс полетят, за появившиеся дубли.
Ждем следующего нововведения: Новые правила русского языка 🤪
Глупо в существующих условиях эти правила вводить: яндекс апает два раза в месяц, да и то лично у меня robots.txt игнорирует почему-то.
И как сейчас правильно составить robots.txt для сайта вордпресс?
чтобы не попасть впросак - проверяем урлы через вебмастер - роботс - и всё ок.
Начну обсуждение с собственно кривости письма для вебмастеров. Там давно пора кого-нибудь поувольнять.
не мудрено: Content-Type: text/plain; charset=Windows-1251