ar00t

ar00t
Рейтинг
21
Регистрация
22.05.2011
saerchengines:
- а как же файл robots.txt? Там же заданы париоды сканирования страниц. Или я ошибаюсь, не люблю этот файл и не пользуюсь им. Раньше ведь всё работало и без него...

честно - не знал, что там можно задавать периодичность .. Поищу информацию о том, как это можно сделать.

-=Urbanus=-:
При первом полном санировании вашего сайта, робот гуляет не только по внутренним ссылкам но и обновляет информацию о уже добавленных страницах. Если допустим страница не отвечает, то ее удаляют из базы.

На счёт списка удалённых страниц - понимаю, есть там такой список 404. Но вот вопрос - когда робот решит зайти ко мне на полное сканирование? :) Нигде не нашёл информации о периодичности.

Антон Белов:
здесь всё очень завуалировано и условно...

к стати, Вы правы- статья очень условная - "по наблюдениям", "по собственному опыту" ...

totalitarist:
Есть такое понятие "ссылочный взрыв", а не "ссылочный шторм". Если одномоментно закупается очень большое число некачественных ссылок на новый сайт, вместо роста позиций может наблюдаться очень сильное падение. Т. е. даже по малоконкурентным запросам сайт может быть, например, на 150-м месте.

Это понятия синонимы - я видел, как люди использовали эти понятия, когда писали об одном. Ну да лан, понаблюдаю за позициями, возможно, что я просто ошибся.

Антон Белов:
взять хотя бы Навального - на него все ссылки ставят, потому что он чё-то весёлое делает - поэтому за это на него фильтр должны наложить? Нету такого фильтра. Вы его придумали...ну или те, кого вы там читаете...дайте хоть ссылку где начитались - поржём вместе.

да простят меня уважаемые админы данного форума, но выкладываю ссылку на статью по этому поводу, которая меня, собственно, и смутила: http://blog.gogetlinks.net/?p=246

возможно это название в народе :) Как я понял - смысл этого фильтра - на тебя ставятся огромное количество ссылок, например за месяц. И твой сайт теряет все позиции по СЕРПУ и на него накладываются санкции. Только я не могу понять какие ..

ar00t добавил 29.05.2011 в 21:36

8ballmaster:
Люди ? вы под чем? Дайте и мне......такое же
Жесть...
Какой фильтр . Конечно же разнятся. Можно и 10000 ссылей получить с 1-го сайта, поставив сквозняк. Толку (для Яндекса) - ?

Я тоже не верю в существование этого фильтра! Но о нём многие пишут ...

и в догонку ещё вопрос, пока не забыл - этот фильтр смотрит на параметр вэбмастера - "ссылающихся сайтов" или "внешних ссылок"? Эти значения у меня очень разнятся.

Фома:
Не, ну количество ты соберешь, но качество? Как ты качество хочешь отслеживать? Есть супер метода, или только по тиц?

Боюсь, что качество только по тИЦ :) Это жесть была бы если бы я ещё качество каждого ресурса в списке пользователей определял :) - это возможно, но на это нужны были бы огромные мощности.

Tesmos:
не, походу не интересно :)

ну тогда и смысла реализовывать её нет. Но я не понимаю одного - как возможность всегда видеть перед собой карту обратных ссылок может не нравится? По моему - это шикарный инструмент для любого толкового SEO-шника - всегда знать количество и качество ссылок ... К примеру ты заплатил за ссылку и всегда видишь - в индексе она или выпала из него. НО на нет, и суда нет. Ничего навязывать не собираюсь.

respekto:
По моему больше чем один раз на одном сайте (ради интереса) я пользоваться им не буду.

а какже кропотливый сбор "жирных" ссылок? и отслеживание "баланса этих ссылок? :)

Забыл назвать ещё одну особенность данного «бонуса» - Вы будите видеть не только входящие ссылки которые "пришли", но и те, которые "ушли" из индекса, причём информация будет разложена по каждому АПУ индеса Яндекса, так сможете постоянно держать всю информацию о своих ссылках не в голове, а в данном сервисе.

Всего: 87