Vladimir

Vladimir
Рейтинг
623
Регистрация
07.06.2004
Интересы
Photo
Datot #:

Жаловаться на выдачу яндекса - тоже самое, что жаловаться на отсутствие ассортимента в коммерческой палатки около вашего подъезда

Ну, почему? Выдачу можно неплохую так подобрать, что не получиться отвертеться, как с вопросом про Машу и медведя. А, если еще и обьяснить, что они соврали про  ошибку ИИ, то там можно и в НКВД писать🤣

xWarez #:

Мой сайт с упавшим трафиком как раз на зарубежном домене в .com зоне.

В текущей ситуации этот критерий скорее всего уже не играет большой роли.

Попробуй добавить на сайт перевод на английский))
В том числе и на главную ( главную с русским оставить))) - одна главная  с меню на русском, вторая с меню на английском)), Урл страниц английских сделать те-же самые один в один.

ziliboba0213 #:

Если в выдачу неканоническая страница встала, а я ее средиректил на нужную 301 редиректом. Чёт уже 2 недели без изменений... В топ 20 встала не с тем титлом и дескрипшном по ВЧ не та страница, которую хз где яндекс нашел. У кого такое было? )) Чё делать?

Я могу 404 ей выдать, так тогда она вообще выпадет, а нужная старая, которая там стояла лет 5 не вернется...

При удалении 404, встанет вторая неканоническая страница, и так пока все страницы не удалите
Так называемая Яндексом каннибализация ( вместо релевантности ) в действии.
Простого решения нет, так Яндекс везде вносит "нарушение" одного правила, другими...и тд

Delysid :

Решил написать как фильтровать боты накрутчиков.

Причина слива информации: Стало мне вас всех жалко! 😀

Странно, у тебя коммент был года два назад, как удалить  бото траф, не фильтруя ботов.
При этом сам, почему то фильтруешь))


Платон #:

Все просто. В robots.txt добавьте

Когда правила научитесь читать? Ну или хотя бы темы на серче отслеживать??

Это пример запрета индексации, которое например Яндекс может не выполнять
И тем более правило   robots не запрещает ботам  чтение и дальнейшее использование в ИИ

Для запрета используется htaccess, с ответом сервера 403 или 404 для этих ботов

softerra #:

На самом деле хостеры глобально очень часто пытаются впарить про нагрузку и вывести клиента на новый тариф.

Так в чем вопрос, переносишь на VPS на минимальный тариф и никто тебе ничего не будет впаривать.
Единственный нюанс с приходом ботов ПС, сервер будет падать

Какие проблемы эту нагрузку ( ПС ) свести к нулю??
Не блокируя и не уменьшая скорость для ПС. Всего лишь настроив заголовки ответа сервера.
А, ну да вы о них не слышали или они не работают🤣

Антоний Казанский #:
Вкладывайте энергию/деньги/время в качество контента и в качество сайта. Штатных средств Вебмастера/СерчКонсоли и соблюдения рекомендаций ПС вполне достаточно. 

Главное "техничку" сайта до мелочей, выше часть описал, остальную часть Гуглите изучайте и будет вам индексация любого контента.

Время новой публикации


Время индексации



- Время переиндексации контента при его изменении, примерно такое же.
- Использование лимита ПС на обход (не более 5%) минимальное, при максимальной скорости обхода.
Т.е нагрузка ботов ПС на сайт нулевая

DemonF2005 #:
Задам им этот вопрос, спасибо за ссылку
Похоже ТС задал вопрос, и чтобы больше не задавал, получил ответ💪
Хостинг огонь😭



htexture #:
 Причем я насколько понял, подмену они делают таким способом, для ру айпи, обычный роботс, для остальных айпи с диссейловом. Для меня с украинским айпи с домашнего пк, вижу диссейлов.

Вон оно что, файл robots надо проверять из под бурж IP

complex200 #:
Вопрос в другом... Зачем им вообще всё это надо, если письмо из Роскомнадзора - это только рекомендация? Они понимают, что клиенты уйдут?

Вашем случае письмо из Роскомнадзора ни при чем.
Вам же хостер дал прямой ответ на ваш вопрос

complex200 #:
"блокировку" ботов Google  для первичной защиты от Ddos-атак 
Но при чём тут подмена файлов robots.txt  с запретом индексации???????

Запрет индексации уменьшает траф ботов Яндекса и Гугла до нуля.
Защита от Ddos-атаки😭

Всего: 9057