mlsha

Рейтинг
44
Регистрация
25.03.2009
Chessmaster:
Бред! Яндексоиды запустили утку! Такого количества факторов просто не существует! :)

у вас на сайте метрика стоит?

после запуска метрики в свободное плавание она появилась я думаю очень у многих... как думаете сколько факторов может добавить только одна связка "переходы со всех сервисов яши" - "метрика на сайте" ?

di_max:
Цитировать Я - все мастера.
А вот растолку-ка нам, плиз, что будет, если поставить:
Crawl-delay: 0
Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но дает роботу больше свободы и позволяет ускорить обход сайта.

из этого следует что робот яши может давать хиты по сайту с любым удобным ему интервалом более 0 секунд...

что смущает? такая запись может быть обработана спец исключением типо "шмурыгай сайт как тебе удобно" и это не будет означать, сиди на сайте безвылазно...

со спецификациями рсс не знаком и пока знакомиться не планирую т.к. надобности в этом для себя не вижу, поэтому не знаю какую там фичу вы хотите использовать, видимо хотите, либо утягивать инфу и быть с ней в топе, либо отдавать и не вылетать из топа (склоняюсь к первому), короче проблема первоисточника...

ПС: di_max, чтение между строк склонен считать не релевантным, т.к. один может домыслить одно, другой другое, а третий вспомнит, что давно пиво не пил...

ТС, был тут уже топик про стукачество, вывод я из него смог сделать только один - хотите стучать - стучите, но на форуме дятлам дают в репу, поэтому стучите молча :)

ПС: а что до спама, то что для вас спам для других навигация ;) и у яши может быть отличное от вас мнение, о чём вам собственно админ и написал, добавить могу только одно - у яши такова политика, что он может простить одному сайту, то что никогда не простит другому... проще говоря СДЛ может иметь некоторые нарушения яшкиных рекомендаций...

ТС, вы по ходу даже свой топик не читаете, один уже пристыдился своих знаний в математике...

Вы вообще в курсе для чего эта директива? вот вам цитата с яшкиного хэлпа (обратите внимание на выделенные участки):

Директива Crawl-delay.

Если сервер сильно нагружен и не успевает отрабатывать запросы на закачку, воспользуйтесь директивой "Crawl-delay". Она позволяет задать поисковому роботу минимальный период времени (в секундах) между концом закачки одной страницы и началом закачки следующей. В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву "Crawl-delay" необходимо добавлять в группе, начинающейся с записи "User-Agent", непосредственно после директив "Disallow" ("Allow").

Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но дает роботу больше свободы и позволяет ускорить обход сайта.
joker1313:
Перечитал ещё раз. Уже понял, что не всегда мешают продвижению.

Коммерческие и некоммерческие запросы ну очень размытые понятия. Кто эти границы определяет коммерческий или некоммерческий?
Например, запрос порно коммерческий или нет?

вообще говоря является ли запрос коммерческим определяет яшка ;)

запрос "порно" - скорее информационный или как написали выше социальный 😆 а вот запрос "купить порно" уже походит на коммерческий 😂

joker1313:
А с чего это поисковые системы придумывали непотлист, ну если не мешают? Они думают однозначно по этому поводу.

я же написал, что вопрос не однозначный... или вы думаете что покупные ссылки с анкором аля "купить авто" мешают ранжировать по такому запросу сайты продающие авто? ;)

Chikago:
Поидее такую блевотину только Гс разместит.

да, что-то в этом духе...

а первоисточники хорошо бы определять с той хотя бы точки зрения чтобы помогать вебмастерам продвигать и делать качественные сайты ☝ а то так что-то написал, у тебя украли и стоят в топе, а тебя вообще нету в выдаче... ну типо обидно блин... и думай потом, что лучше делать хорошо или тупо стырить ;)

joker1313:
Спасибо большой ссылку. Многое стало понятно.
Только возникли новые вопросы.
Когда же поисковики научиться на 100% определять покупные ссылки все биржи ссылок загнуться? Как будет здорово:-). Мне кажется самое большое зло для поисковиков - это биржа ссылок. Но я знаю как с ними бороться. Сотрудник яндекса регистрируется на Сапе, Seopult и т.д., делает парсер для сбора всех сайтов, которые продают и покупают ссылки и в непотлист все)) Вот было бы весело :-)

А то получается, какой бы у тебя не был хороший сайт, если у тебя нету денег на покупку ссылок, то не выбраться тебе по высокачастотнику и в топ-200 )).
Хотя мне интересно сайт "Вконтакте" сколько ссылок закупил, что у него тИЦ 44000 :-)

контакт продвигается можно сказать вирусным способом...

а что до все биржи загнутся, то это глупость просто... вы наверное плохо сам доклад читали, или плохо поняли... по внешним признакам можно прекрасно определять подавляющее большинство торгующих сайтов... да и с чего вы взяли что покупные ссылки только мешают поисковикам? это как минимум не однозначно... теперь вам надо поискать на тему "коммерческие и не коммерческие запросы"

вот это найдите и почитайте, поимеете хоть какое-то представление ;)

praide, :)

хорошо бы, хорошо бы, хотелось бы, хотелось бы :)

Всего: 446