Не работаю с рекламой, но посетителей из зоны ру делю по языку браузера, он на 99,9% "ru"И тд, испанский, немецкий, французкий и остальные ( енглишь и тд)
И никаких IP и прочих срабатываний скриптов
Ну и поведение в том же вебвизоре, у мобильных пользователей - писец. Как будто, их десяток жареных петухов клюнуло, и громом догнало. Просто мечтаться, тычутся, листают, перебирают... С десктопов, поведение совсем другое.
Так это боты поди и их поведение?
Т.е. я правильно понимаю, что любой потенциальный клиент, осмелившийся зайти с мобилы в инет вашу рекламу не увидит?👏 А ваши клиенты (если кому настраиваете) об этом догадываются? 🤣
- У меня нет клиентов :) А ваш клиенты знают, что вы сливаете бюджет на ботов?:)- Потенциальный посетитель с мобилы, все равно никак не успевает зайти по рекламе, бюджет сливается быстрее, чем он ее видит. А, так хоть какие то посетители с директа ( с апреля выключено, до апреля норм было)
При мобильных переходах ситуация иная. Выходит, что с мобильных устройств заходят боты?
- Боты- Поздравляю, не слушай балбесов🤣 все правильно сделал
PS Включил у себя директ Яндекс, с отключением всех посетителей с мобил совсем
Дмитрий1231 #:
то наверное корректней десяток услуг засунуть в сайт\услуги\услуга1. Т.е. тут интересует не столько удобство пользователей, ..., как отдаленность от главной
Лучше удобство пользователейНе существенная вложенность ( отдаленность от главной). Стройте структуру сайта "дерево" и соответствующие быстрые ссылки сайта
- по тематической схожести, еще допиливаю некоторые страницы спустя время
По теме, ответа вебмастера: роботу нечего ходить по страницам сайта, если они уже проиндексированы.И для многих вебмастеров, если робот каждый день не обходит весь сайт - это все ужас))Таким у меня ответ: робот должен ходить только по новым или модифицированным страницам сайта. Чтобы он это соблюдал, нужно ему выдать данные. И роботы, более менее ( нарушая), эти данные соблюдают. И в связи с тем, что лимиты не тратятся зря, весь новый контент практически сразу индексируется. Нет проблем ни с Гуглом, ни с Яндексом по индексации, ни по нагрузке на сайт
Читать посты надо внимательно, а не привязываться к ВП или битриксуБерем первый попавшийся сайт на ВП и прокачиваем нужный нам сайт - ответ 200.Если вы не озаботитесь исправлением данного вопроса, вас будут спамить
Смысла может и не быть - ТЗ по выводу случайных постов не поставили, программист сделал как ему в голову пришло- Не вижу смысла
Да, затейливо,
Редирект этот надо конечно закрывать.
Теме лет уж, ну точно больше десяти- Это один из первых вопросов, который программист должен закрывать ( проверять) на сайте. Либо в движке, либо в htaccess- Это один из вопросов, которые нужно отслеживать в вебмастере - в истории обхода
Ну, хорошо, качают вес конкретно какому донору, если эти обращения перенаправлять в 403 результат?
Что они там "накачают"?
Ничего, поэтому и надо закрывать 200 или 301 редирект. Движок ВП к примеру отдает 200 на такую конструкцию, полный дубль. Который яндекс зачастую индексирует, не смотря на запрет
Блина, только сейчас посмотрел, твой сайт у меня в базе, значит и не только, сноси редирект или меняй адрес url редиректа
Роботс же не гарантирует непопадание в индекс. Размещай ссылки на стороннем сайте - и всё попадёт.