-=Илья=-

-=Илья=-
Рейтинг
222
Регистрация
05.12.2003
Должность
Оптимизация
Я бы хотел узнать какими програмными средствами лучше всего вычислять вес страницы (по поисковым запросам).

http://be1.ru/stat/

http://semonitor.ru/

http://semaster.ru/

Полагаю, что их вполне достаточно.

Вернее, очень бы пригодился хороший графопостроитель, для отображения структуры сайта, но таких к сожалению не знаю.

И что, если это Wolf, то мы ему сейчас конечно объясним правила формирования титлов, но на кой оно ему?

;)

Saney, что ты, какие конкуренты? Если человек только начинает заниматься оптимизацией, то он не конкурент.

Как писал Freem
Это логотип видеопроката "Оранж".
http://www.orangevideo.ru/
Только с лучиками :)

Тогда уж и логотип игровой приставки dreamcast - http://kotisivu.mtv3.fi/sonicsite/Dreamcast.jpg

User-Agent: *

Disallow: /test

Host: www.site.ru

Как писал greenwood
так может фильтры снять ? то-то будет веселуха ..

Тут ситуация иная. Спам человек получает не спрашивая, а серпы формируются по его личному запросу. При этом разумеется. дубли стоит подклеивать друг к другу, что уже давно делают все поисковики. Но если перед тобой странички являющиеся дублями процентов на 40 - зачем их склеивать, или опускать одну из них? Это нежелательно, так как наверняка в половине случаев это окажутся странички одного товара с разных сайтов и с разными ценами.

host правильный пропишите.

Как писал amph
Илья:) Имеется в виду, что коммерческая область, которая строится на заимствовании чужих контентов, пострадает. А которая НЕ строится -нет. Что в этом страшного?

Хм. А вы вообще видели, какими становятся "уникальные" спамерские письма для прохождения фильтров?

Нащет страданий бедной коммерческой области -ими можно пренебречь

Нет слов...

Если приоритет будет у первой по времени публикации, а копирование будет рассматриваться как ссылка

То выкладывание десятков тысяч идентичных дорвеев станет прибыльным делом. Сейчас из идентичных текстов в индексе наличествует один. Будет много.

Всего: 4070