сеобелка

сеобелка
Рейтинг
62
Регистрация
27.04.2021
suffix #:
Лебединное озеро в Большом из середины партера под коньячок с красной рыбкой в антракте очень хорошо - не пойму чего Вы пугаетесь :))) ?

В Большом - это хорошо! Вот когда со всех утюгов - не очень)))

богоносец #:
так и до лебединого озера дойдёт

вот и я об этом же...

webinfo #:
Не забудьте при этом разделить секции для гугла и яндекса, если это ещё не сделано.

Вот так правильно будет?

User-agent: Yandex
Disallow:
Clean-param: share&nb

Неожиданно быстро получила от поддержки ответ. Считаю нужным поделиться, может кому поможет.

Тезисно ответы звучат так:

  1. о странице https://сайт.ру/skripyt-tormoza/?share=facebook робот узнал со страницы https://сайт.ру/skripyt-tormoza/ 12.10.2020, 04:25:36 по МСК. Сейчас подобные ссылки отсутствуют, однако они сохранились в базе робота.
  2. Для ограничения индексации подобных ссылок вы можете использовать директиву вида Clean-param: share&nb .
  3. Отмечу, что сейчас индексирование таких страниц запрещено в файле robots.txt директивой Disallow: /*? , из-за которой Clean-param не сможет обрабатываться. Чтобы директива Clean-param обрабатывалась, необходимо либо удалить запрет, либо добавить более узкую разрешающую директиву, например, Allow: *share= .

Вот читаю тут ответы и думаю, у меня одной семья требует времени? Нет, не у одной, еще у того человека, что на бирже торгует детьми?))))

Остальные все похоже свободны, как ветер. Заказал пиццу и в сериальчики!

Bill_geits :
Года 4 совершенно не трогал файл robots .txt . Сегодня в вебмастере прилетело сообщение -Найдены страницы-дубли с GET-параметрами

Скажите, вы решили эту проблему?

У меня вчера прилетела аналогичная. Сайт статейник. Гугл тех адресов, что Яндекс мне предъявил, как пример критических ошибок вообще не видит, пишет такой страницы не существует.

Парадокс еще в том, что у меня 5 сайтов стоят на одной теме с почти идентичными наборами плагинов. Все настройки там делались аналогично одними и теми же руками. Проблему выдал Явебмастер только на одном. В поддержку написала, но там, сами знаете, иногда ответ можно ждать неделями.

Kykapa4a #:

На моем гс обратная ситуация, после обновления боты куда то исчезли. 😂


Интересно, у вас отвалились только боты, то есть они людьми стали? Или вместе с их уходом ушли посетители?

GranTurismo #:
разве что китайская помогает, если стата оттуда - не фейк)

В Китае всех привили. Но, люди, что работают там, говорят, что все равно периодически карантины вводят. Значит болею

netscout #:
Пускай перетрусит их искуственный интеллект, он нереально сырой, а то нарушают неписаные истины - "работает - не трогай" ))).

Так ведь искусственный интеллект - это просто набор алгоритмов. Их испытывают. Подошел по задачу - вводят, не подошел- нужно менять. Видимо для 300 они решили подошел. Выкатили на всех - как-то криво получается) Теперь главное, что бы не закрыли глаза на то что криво. Но, пока будут обучать нам будет похоже весело, как любым подопытным)))

TheVS #:
Есть один сайт-заготовка, на который заходит 5-10 человек в неделю по очень нишевым запросам. Такие очень сложные и длинные запросы и по вебвизору было видно, что подробно читают, картинки кликают для увеличения, т.е. точно люди. Так вот теперь метрика считает, что 100% этих посетителей были роботами.

У меня похожая ситуация на молодом сайте. БОльшую часть заходов из соц.сетей на нем засчитывают, как ботов.

Всего: 573