А никак. И даже не берет в картиночный индекс, сцуко, что печально. Это я палю тему))
Это они клоуны. 1. Ибо это нарушение прав, на что можно накатать жалобу2. Это им не поможет, ну привяжут они мою карту. Толку от этого? Снять финансы в связи с тем, что якобы работа сделана и оплачивайте они не смогут. Даже если на ней есть мани.
За партнерские есть отдельный фильтр, здесь ранее уже выкладывали скрин. Он к МПК не относится. К МПК относятся продажные ссылки.
Это как?
Они у меня помещены в кнопку, но я так понимаю, что они все равно "видны"
Но только лишь из-за одних ссылок вряд ли фильтр наложат.
Сейчас сижу снимаю все ссылки...надеюсь поможет😭 фильтр с 18.09
Спрячь их в form
Пережили легкую ддос атаку. В итоге, из-за кривызны рук специалиста
Это норма для него, при таких специалистах. И которые советуют руками в консоль добавлять))Поменять специалиста, настроить ответы сервера, будет несколько дней
а может я должен контентом заниматься, а не "читать больше" про закидоны поисковых систем?
Мы, владельцы сайтов, тут сидим просто потому что не понимаем что делать и пытаемся делиться опытом с этой дуростью от Яши
Если вы как владелец сайта желаете заниматься только контентом сайтаИ не хотите ни изучать, ни заниматься ни SEO, ни анализом, ни техническими ошибками сайта - тогда, что вы делаете в этой теме? Нанимайте специалистов, которые вам это сделают
Самое главное комментарии в блоге они закрыли, потому что на них сразу ушат фекалий полились
На фекалии, они такими же ответами отвечали, им не привыкать.Там достаточно много было технически правильных вопросов, вот из-за них они и закрыли
" robots.txt и каноникал, это рекомендации, а не правило. = немерянное количество дублей " - если я закрыл пагинацию в robots.txt- это нормально и достаточно или в страницах типа ?page=2 еще прописать метатег robots с noindex?
Возможно мой вопрос покажется глупым, но можете вот про это пояснить: "Плюс спамеры по URL, создают вам еще такое же количество дублей ( сервер отдает 200) "? Пожалуйста!
- метатег robots с noindex- ?go=http://url-spamera Несмотря на закрытие в robots.txt, яндекс это г индесирует, а зачастую выкидывает из поиска страницу каноникал. Через время, извините исправился. Но если сайт большой, и такого спама много. Таких дублей в индексе много
То есть есть некая тема на форуме.. в которой представителя яндекса слили инфу, что теги надо убирать из поиска? но при этом яндексойды стесняются об этом написать где-то у себя в блоге и вебмастере
У вас каша в голове, читайте больше. И не валите все на стеснительность Яндекса