Он, оказывается, чертовски педантичный человек...
У меня там небольшой глючок в оформлении был... =))))
Спасибо, Gray
---
С уважением, Андрей Хроленок.
После не сильно долгих, но, увы, безуспешных поисков написал такую сам. Писал на коленке и доделываю по мере необходимости... Примитивная штука, однако - неужели сложно такую же написать самому?..
------------------
С уважением,
Андрей Хроленок.
Можно, но вся загвоздка в том, что определить разрешение экрана наиболее простым образом можно, наверное, только через JavaScript...
Тут проблема в том, что либо твоя страничка должна содержать скрипт, который будет на лету выбирать нужный вариант картинок, что не всегда нормально работает, либо он должен как-то собранную информацию передавать в CGI-приложение...
Description может содержать краткое описание странички. Как правило из него учитывается не более 200 символов, но все зависит от конкретного поисковика. Яндекс его читает и показывает, Рамблер - даже не читает...
Keywords содержит список ключевых слов/фраз, относящихся к содержимому страницы. Отношение к ним опять же у разных поисковиков разное.
Robots содержит команды поисковику, что можно делать с содержимом странички. Возможные значения (записываются через запятую, если их несколько):
Index/NoIndex - можно ли индексировать содержимое;
Follow/NoFollow - можно ли идти по ссылкам с этой страницы;
All = Index,Follow
None = NoIndex,NoFollow
Если тег отсутствует, робот воспринимает документ как со значением <meta name="Robots" content="All">
Google понимает еще пару значений. Кажется это Archive/NoArchive...
Роботы не обязаны воспринимать этот тег, но де-факто почти все его понимают и реагируют адекватно.
Известными мне роботами эта куча тегов НЕ воспринимается. Так что это просто мусор, который не более как увеличивает размер документа...
[This message has been edited by Gray (edited 09-03-2002).]
А не в курсе ли кто, по каким критериям отбираются сайты в это подмешивание?.. У меня по запросу при поиске в топ100 сайт на втором месте, а в поиске по и-нету его нет... при этом те, что выше и ниже стоят - есть... обидно... =(
Самый лучший выход в этой ситуации - действовать комплексно.
Вот RICN может помочь, Hash, который я упомянал выше, тоже вполне имеет рычаги воздействия... Пользуй все пути, раз уж начала.
Андрей Хроленок
Применительно к Яндексу все немного хитрее: у них на сайте написано, что слово из ключевых учитывается только при условии его присутствия где-либо в тексте...
В качестве одного из вариантов решения проблемы могу предложить сайт http://www.ezhe.ru/hash/ где как раз разбираются с подобными типами. Вот только тебе придется решить непростую проблемму: как доказать сторонним людям, что автор именно ты, а не они?
Советую этой мыслью озаботиться ДО того, как писать туда письмо, т.к. вторая попытка с меньшей вероятностью окажется успешной - там слишко много народу будет ваш конфликт рассматривать и желания циклиться на этом у них нет...
Все очень сильно зависит от самой поисковой системы. Например, Яндекс учитывает только первые 50 слов из списка ключевых и ему наплевать на повторы - он каждое слово учитывает не более одного раза. Более того, при повторах у тебя меньше слов получится после выкидывания дублей из первых 50-ти...
Вообще же много где советуют не повторять в ключевых словах любое слово более, чем 5 раз...
Наличие слов в тексте - большой плюс, но на блокировку за спам в поле ключевых слов это не влияет.
Думаю, все намного прозаичнее: они сделали нормальный вариант поиска картинок и этот робот занимается тем, что создает базу превьюшек (trumbnails)...