Kifsif, это называется сбор данных посетителя.
Будучи находясь на сайте с счетчиком метрики, при активной закладке с данным сайтам по таймауту и при клике отправляются ГЕТ и ПОСТ запросы вебвизору метрики. Вот тоже интересно, а зачем? Например зачем отправляются данные о клике, который был сделан в не кликабельную область сайта?
Целесообразно пасти таким сервисам как метрике и аналитике, ну ни как не браузеру.
Ну если это конечно не недобраузер "Амиго". 🤪
Очень сильно сомневаюсь, что атрибут target со значением _blank у тега A имеет ( будет иметь ) какое либо влияние на ранжирование, разве что в алгоритме всемирно знаменитой поисковой системе майла :kozak:
Подобная конструкция для браузеров, а не для ПС. ИМХО
Даже страшно подумать, что там еще себе по напридумывает "Mail.Ru Group" 🤣
Закладка с такими вебинарами закрывается на 2 минуте просмотра.
При создании/редактировании статьи/публикации или как там в том вордпресе называется 🤣 ( не пользуюсь движками )
скрины с гугла
По поводу дозирования, посоветовал бы отложенные публикации, если движок позволяет.
К примеру было у Вас свободное время, написали сегодня три статьи. Одной поставили дату публикации сегодня, второй и третьей публиковать завтрашним днем. Вдруг завтра времени не будет что то публиковать. Написали 50, раскидали в отложенные публикации на неделю или даже на месяц в перед. В перспективе быт может заведется и у вас быстробот, который будет каждый день ходить и индексировать.
Можно попробовать создать соц. сигналы, ссылки с групп соц. сетей на сайт/ отдельные станицы. А вообще где то была тема про быстробот и ускорение индексации. Подобные темы уже поднимались, воспользуйтесь поиском.
RewriteCond %{HTTP_HOST} ^www\.(.*) [NC]RewriteRule ^(.*)$ http://%1/$1 [R=301,L]
Так дално прокатить.
Disallow: /*?*Allow: /*?PAGEN_*
Приму в дар сайты с ТИЦ 10 🤣
uly, задайте вопрос своему хостеру majordomo, но думаю они ответят что проблема в вашей джумла. Если так, то нужно пробежаться по статическому коду на предмет присутствия двойного w3 в ссылках.
Быть может и в динамической части касяк, то есть при формировании урл методами/функциями.
Не найдя источника проблемы, можно поставить правило с 301 редиректом.
И к слову, зачем Вам две директивы sitemap в robots.txt ?
Это хлебные крошки (breadcrumb), почитайте, о них хватает информации как на этом форуме, так и в поисковиках.