Вообще-то, если домен забанен, то АлтаВиста пишет при попытке засабмитить страницу с домена что-то типа "Слишком много страниц засабмичено". Видимо отсюда ноги и растут у поверья, что нельзя много страниц сразу сабмитить. А вот по поводу штрафов за ручной сабмит, честно говоря, не замечал такого. Да и как можно определить заштрафили за это страницу или нет? Какими такими наблюдениями? Сравнив с точь такой же, расположенной на другом домене? Дык, у него link popularity другая.
А на фига бабло-то платить за сабмит? В Инктому можно засабмитить любую страницу на халявку через поисковики Сanada.com:
http://www.canada.com/search/web/addurl.asp
и HotBot:
http://hotbot.lycos.com/addurl.asp
Через Канаду получается быстрее (около недели).
[This message has been edited by wolf (edited 28-04-2001).]
Золотые слова!
А, может, они ими торгует? Берет у одних, и толкает другим. Интересно, почем нынче на Спайлоге тонна хостов?
Насколько мне известно, на тег keywords Гуглу тоже плевать. Он смотрит в URL, title, body с его тегами типа <h1>...<h6>, <alt> и т.п., ну и, конечно, link popularity.
А что тут криминального? title в порядке. А description (который "ужастьный") Google вроде как не индексит, так что ему "по барабану", что так написано, Google "любит" title и body. А вот AltaVista такой сайт наверняка забанила бы. Она дескрипшн индексит. Хотя, где-то я читал, что банится примерно 2/3 сайтов, использующих спам, а 1/3 все-таки проскакивает сквозь кордоны.
А чей-то у меня постоянно показывается, что во всех топиках есть новые сообщения, хотя я точно знаю, что в нескольких, с тех пор как я там побывал, новых сообщений нет?
Секрет непотопляемости некоторых сайтов в Яндексе прост. В его алгоритме есть такая штука - чем больше на сайте страниц, на которых встречается ключевое слово, тем выше релеватность самой лучшей из них (они как бы выталкивают самую релевантную из своих рядов наверх). Это факт, я провел несколько экспериментов по этому поводу, и все они подтвердили это. Поэтому, если на каком-то сайте несколько тысяч страниц, и большинство из них содержит ключевое слово, то ее не поборешь иначе, как если сам не создашь на своем сайте адекватное количество страниц по теме. А если ключевое слово таково, что очень часто встречается в новостях (например, "нефть"), то вся первая страница забита новостными сайтами с протухшими новостями по этой теме (страниц-то на этих сайтах, удовлетроряющих запросу - масса, новости-то все в архивах лежат, никто их не удаляет). По моему мнению, это далеко не увеличивает удовлетворенность результатами поиска в Яндексе. Для меня важнее хорошая страница (даже если из всех страниц сайта только она одна удовлетворяет запросу), чем несколько сотен страниц с отстоем по теме, а вот для Яндекса - наоборот.
[This message has been edited by wolf (edited 13-04-2001).]
Все роботы вообще-то ходят по ссылкам, только это вопрос времени. По моим наблюдениям, чемпион по тормознутости в этом вопросе - Excite, у него на это уходят месяцы (если не годы ). А вот Google достаточно быстро по сайту пробегается. Что касается Lycos'а, то он, по-моему, достаточно тормознут в этом вопросе. Хотя, кому как повезет. Так что, если есть время, то лучше сабмить странички в крупные поисковики вручную и по чуть-чуть (идеал - не более 1 страницы в сутки, хотя в некоторых можно и поболее).
Проиндексит, только ждать замучишься. Лучше сабмитить все странички вручную, и желательно не более одной с сайта в сутки. Хотя, если на сайте несколько сот страниц, то это займет не один год. В таком случае лучше сделать gateway со ссылками на все страницы (своеобразную карту сайта) и зарегистрировать его, а робот сам потом пройдет по ссылкам.