minsky

minsky
Рейтинг
219
Регистрация
01.09.2012
domen77 #:
Какой трафик должен быть, чтобы игнорировало запрет индексации? 
Ни какой, хватает что бы просто внешними ссылками ссылались на эти страницы.

https://yandex.by/search/?text=site%3Alidaflat.ru%2Fimg-e67d8885848d55a58e74086ca1810636-v%2F&lr=10274&search_source=yacom_desktop_common&rdrnd=71838&redircnt=1756137576.1

1

И индексирует эту лабуду, что сумасшедший)))) 

А по сути у яндекса "Малоценная или маловостребованная страница" вообще не работает или рандомно удаляет или оставляет. Могут годами висеть страницы пустые в индексе и пофиг)))) А нормальным, даже и посещаемым присваивает и удаляет))))
не хаос #:
Если это глупость, предложите вариант, идею лучше. Критиковать любой человек даже с низкими интеллектом и уровнем воспитания сможет.
Конечно же глупость, зачем вообще ссылки убирать? А если наставишь тысячи ссылок, будешь мониторить каждую в течении года, как  Vidos говорит
Genius Ideaing #:

не следовать, а абсолютно выполнять...

голосуем?

то тут то там в новостях проскальзывает... что индексирующие роботы ИИ выдают лицензированную или иную закрытую информацию... ключи к Виндоус  , номера банковских карт и Бог знает еще что... на мой взгляд это в том числе потому что владельцы сайтов запрещают индексировать какой то контент через роботс тхт. а краулеры все равно парсят закрытые так разделы.. конечно, если утечка коммерческих данных происходит.. то как говорится "сам дурак"... надо закрывать разделы паролем или иными апач директивами .htaccess ... но все равно.. странно... что ПС суют в индекс то, что не хотелось бы ... указав в роботс тхт... 

Странно))) А зачем показывать, что не хотелось бы, что бы видели))))) Закрытую информацию ИИ не выдают, если она правильно закрыта.
не хаос #:
Жпт пишет что  даже если имитация ненадолго улучшит позиции этот результат будет недолговечен т.к. поисковики постоянно улучшают свои алгоритмы.Выходит, что клиент должен быть готов к постоянным расходам на имитацию программами, ботами, биржами заданий.

Если в теме нету накруток, мало или плохие, месяцами держится, даже если самому прекратить накрутку. Вытащить на первое место и потом просто иногда подкармливать) Вот кстати пример нашел, те что крутились, стабильно держаться уже 3 месяца без накрутки, те, что сами - прыгают

Жпт - это слова накрутчиков, что бы не спрыгивали)))

P.S. Правда выдача немного отличается, от снятых позиций (об этом уже говорилось), но там по мелочи, может +- 2-3 позиции. Траст все равно побеждает!!!!

alaev #:

За пару дней ни в вордстат, ни в подсказки не залетит. Процесс гораздо инертнее.

Если у тебя будет нагул профилей ботов 2 дня, то 99% просто выпилят из статы.

Дёшево, быстро и «за копейки» можно сайт втащить в результаты выдачи для ботов по xml.

Ну месяц погоняю)))
alaev #:

Смотри. Один раз ввел запрос, а он уже в подсказках! Я этот запрос накрутил?)))


это у тебя персональное, я решил потестить, вчера запустил, через пару дней посмотрю
Vladimir #:

Персональных подсказок не бывает ни в Гугле ни в Яндексе. 

Примеры я и сам могу посмотреть, где ответы?

PS Если у вас подсказка персональная, вы точно умеете ее создавать? Имею ввиду саму подсказку, а не ее статистику или накрутку

В яндексе точно есть, в гугле не пробовал. А что там её создавать, заходишь чистым профилем и сама создается, в Куки записывается, а потом вытаскивается, можешь попробовать

Pyro22 #:
Это что-то новенькое. С тех пор как Гугел начал динамить нас с индексацией быстророботом стали отправлять каждую новую статью в серч консоль и запрашивать для нее принудительную индексацию. Но сегодня после одной добавленной новости вот такая картина.
С каких это пор динамит с индексацией быстроботом? Так запроси индексации через google indexing, хоть миллион, там квот нету или обойти можно
Всего: 2084