wolf

wolf
Рейтинг
1183
Регистрация
13.03.2001
Должность
интернет-маркетинг, SEO

Вообще-то, если домен забанен, то АлтаВиста пишет при попытке засабмитить страницу с домена что-то типа "Слишком много страниц засабмичено". Видимо отсюда ноги и растут у поверья, что нельзя много страниц сразу сабмитить. А вот по поводу штрафов за ручной сабмит, честно говоря, не замечал такого. Да и как можно определить заштрафили за это страницу или нет? Какими такими наблюдениями? Сравнив с точь такой же, расположенной на другом домене? Дык, у него link popularity другая.

А на фига бабло-то платить за сабмит? В Инктому можно засабмитить любую страницу на халявку через поисковики Сanada.com:

http://www.canada.com/search/web/addurl.asp

и HotBot:

http://hotbot.lycos.com/addurl.asp

Через Канаду получается быстрее (около недели).

[This message has been edited by wolf (edited 28-04-2001).]

Золотые слова!

А, может, они ими торгует? Берет у одних, и толкает другим. Интересно, почем нынче на Спайлоге тонна хостов?

Насколько мне известно, на тег keywords Гуглу тоже плевать. Он смотрит в URL, title, body с его тегами типа <h1>...<h6>, <alt> и т.п., ну и, конечно, link popularity.

А что тут криминального? title в порядке. А description (который "ужастьный") Google вроде как не индексит, так что ему "по барабану", что так написано, Google "любит" title и body. А вот AltaVista такой сайт наверняка забанила бы. Она дескрипшн индексит. Хотя, где-то я читал, что банится примерно 2/3 сайтов, использующих спам, а 1/3 все-таки проскакивает сквозь кордоны.

А чей-то у меня постоянно показывается, что во всех топиках есть новые сообщения, хотя я точно знаю, что в нескольких, с тех пор как я там побывал, новых сообщений нет?

Секрет непотопляемости некоторых сайтов в Яндексе прост. В его алгоритме есть такая штука - чем больше на сайте страниц, на которых встречается ключевое слово, тем выше релеватность самой лучшей из них (они как бы выталкивают самую релевантную из своих рядов наверх). Это факт, я провел несколько экспериментов по этому поводу, и все они подтвердили это. Поэтому, если на каком-то сайте несколько тысяч страниц, и большинство из них содержит ключевое слово, то ее не поборешь иначе, как если сам не создашь на своем сайте адекватное количество страниц по теме. А если ключевое слово таково, что очень часто встречается в новостях (например, "нефть"), то вся первая страница забита новостными сайтами с протухшими новостями по этой теме (страниц-то на этих сайтах, удовлетроряющих запросу - масса, новости-то все в архивах лежат, никто их не удаляет). По моему мнению, это далеко не увеличивает удовлетворенность результатами поиска в Яндексе. Для меня важнее хорошая страница (даже если из всех страниц сайта только она одна удовлетворяет запросу), чем несколько сотен страниц с отстоем по теме, а вот для Яндекса - наоборот.

[This message has been edited by wolf (edited 13-04-2001).]

<font face="Verdana" size="2">Originally posted by HST:
Спасибо за разъяснения!

Не хочу новый топик открывать, поэтому решил проконсультироваться здесь по тому же самому вопросу, но касающемуся уже Lycos. Т.е. для него тоже нужно каждую страницу руками прописывать?

</font>

Все роботы вообще-то ходят по ссылкам, только это вопрос времени. По моим наблюдениям, чемпион по тормознутости в этом вопросе - Excite, у него на это уходят месяцы (если не годы ). А вот Google достаточно быстро по сайту пробегается. Что касается Lycos'а, то он, по-моему, достаточно тормознут в этом вопросе. Хотя, кому как повезет. Так что, если есть время, то лучше сабмить странички в крупные поисковики вручную и по чуть-чуть (идеал - не более 1 страницы в сутки, хотя в некоторых можно и поболее).

<font face="Verdana" size="2">Originally posted by HST:
Спецы, если у меня есть несколько взаимосвязанных ссылками друг на друга страниц, и я делаю submit главной страницы в AV, то проиндексирует она автоматом остальные страницы (т.е. пройдется ли ее скутер по ним), или я должен вводить каждую страницу вручную?
Спасибо!
</font>

Проиндексит, только ждать замучишься. Лучше сабмитить все странички вручную, и желательно не более одной с сайта в сутки. Хотя, если на сайте несколько сот страниц, то это займет не один год. В таком случае лучше сделать gateway со ссылками на все страницы (своеобразную карту сайта) и зарегистрировать его, а робот сам потом пройдет по ссылкам.

Всего: 24501