Fenyx

Рейтинг
42
Регистрация
08.07.2005
Piligrim:
мне больше второй вариант нравится. Потому что
1) визуально лучше
2) необязательно запоминать расширение страницы, коих великое множество (htm, html, php, shtml, shtm и так далее), для того, чтобы набрать ее руками в строке браузера

ИМХО, я даже по своему сайту по линкам хожу, а на чужих сайтах запоминать УРЛ?... врядли много таких людей найдеться... :)

beroot:
не пойму как ее усложняет урл вида /name/ ?

Абсолютно согласен никакого усложнения ни поисковику ни юзеру тута нет. Видимо автор нашел второй вариант в статье про изменение динамических адресов на папочный вид... Но,имхо, даже это не актуально....

alexosv:
Уже там был. Выбора много. Хотелось бы узнать о тех, кто чем уже пользовался.

ИЗ всего предложенного выбора для своего сайта я написал сам :) Чего и Вам желаю...

Vetra:
Зачем? Роботом до ЯваСкрипта никакого дела нет. Они все-равно не умеют их исполнять.

Имеет смысл закрывать счетчики, "что б пр не утекал", но это только если вы верите что он утекает (я - нет)
Так же имеет смысл закрывать дублирующиеся менюшки...
Или, как писалось уже, ссылки на буржунет..

Хотя ИМХО в этом нет никакого смысла ))

То что боты не могут исполнять скрипты это понятно, но влияет ли текст скрипта на общее кол-во слов на странице? Учитывают ли поисковики любые слова между тегами <script></script>?

CooLeR:
имхо, конечно, но - это CNcat (http://www.cn-software.com/cncat/)... легко устанавливается. легко модифицируется и "встраивается" в общий дизайн сайта. Да и немаловажно вот что - он абсолютно бесплатен!
Минус (если так можно назвать) - это требование выделить под него 1 базу в MySQL'e...

Можно и нужно так называть.... Выделение отдельной БД очень не плохой минус.... ИМХО

ИМХО, лучше использовать JavaScript.

А для Google разница в написании слов ввоще различнейшие выводы, так что я понимаю человека который так поставил запросы...

YugForum:
Не так давно на форуме кто то запостил отличную статью про песок - попробуй поискать!
А вобще, не заморачивайся с песком - молодые сайты попадают в 99% из 100.

У меня есть 1% 😆

Kost:
<noindex><html>.....</html></noindex>
Так что-ли ? :)
Вообще-то поисковики хранят в индексе только слова, их месторасположение и их признаки.

Нет я имел ввиду закрывать <noindex> все ява скрипты, длинные куски html кода, счетчики, ненужные сабмиты и остальной мусор. Есть ли от этого смысл?

YugForum:
1. Новый домен это здорово и для прикормки поисковиков и целесообразного использования "бонуса новичка" ты просто обязан проставить хоть какое то колличество хороших ссылочек. После того, если ссылки действительно толковые, то поисковики начнут почти сразу хавать твой сайт - вот тогда ты сможешь почувствовать бонус Я и от корректировать сайт.
2. Резкое увеличение - это когда ежедневно, ты простовляешь огромное колличество ссылок на протяжении долгого времени, но вряд ли новичку это под силу :) (все ссылки имеют разное качество, особенно каталожные и по разному индексируются - есть лишь очень маленький % того, что поисковик схавает все несколько сотен проставленных ссылок за раз).
3. Что касается песка, то это своего рода отстойник придуманный програмистами Гугля для молодых сайтов и (ИМХО) все молодые сайты попадают в него (во всяком случае мои).
А вобще, читай форум и пользуйся поиском - это наверное самый лучший совет!

Благодарю за ответ, а песок я искал в поиске и толком не нашел нормальной расшифровки. :)

Всего: 68