- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Метрика по рангу выше, чем файл роботс
Неправда. Кроме того, нет никакого ранга. Именно через robots.txt можно управлять директивами индексации, Метрика может быть дополнительно прикреплена через Яндекс.Вебмастер только для того, чтобы лучше индексировать новые страницы с трафиком - это дополнительный сигнал, а не замещающий. Впрочем, Метрика может использоваться и без связи с Яндекс.Вебмастером.
clean_param работает. Но, вначале "кучка" индексируется, потом удаляется согласно правила роботс.
Но на следующий день, снова в индекс - из метрики то никуда не делось.
Попрошу конкретно скрины, доказывающие, где clean_param срабатывает, а затем, перекрытые правилами clean_param страницы снова попадают в индекс.
От себя могу сказать, что в моей практике clean_param лучше срабатывает на новых страницах, перекрываемых правилами. Для старых (уже проиндексированных) - Disallow и принудительное удаление из индекса. Пять лет назад у меня была релевантная задача и я связывался с службой техподдержки по вопросу неточной работы clean_param, где получил разъяснение, что clean_param обеспечивает неучёт новых страниц с доп. get параметрами, а запрет индексации и поддержку принудительного удаления из индекса - Disallow, что в своё время и обеспечил. Так что в общем и в среднем задача решается, а Метрика функционально участвует только в том, чтобы классифицировать рекламный рефер и учитывать его в статистике, разделяя на рекламные каналы. Решение об индексации принимает индексирующий робот Яндекса, а не Метрика.
Попрошу конкретно скрины, доказывающие, где clean_param срабатывает, а затем, перекрытые правилами clean_param страницы снова попадают в индекс.
Читать умеешь?
Вначале индекс, потом срабатывание правила роботс, потом снова индекс, и так по кругу.
Мне отвечать не надо. Доказывать Вам, что то? зачем?))
А, вот ТС ничего доказывать не надо, у него все это есть в его топике и его вопросе и у него на практике..
Совет для ТС у меня написан, частично он сам допилил ( на все запросы Г, не должно отдаваться 200 )
Учти Совет, он берет его безо всяких споров и проверяет на практике.