А сылочное по анкорам? Разве не об этом была речь?
new-2 добавил 11.09.2011 в 00:43
А кто говорил про тег keywords?
Я в шоке. А что же тогда играет?
В каком смысле?
Я правильно понял, что он линкует прямое вхождение ключа и все линки получаются с одним и тем же ключом, или он действует "умно", меняет все так, чтобы анкоры были разные? И по какой кстати, схеме он линкует? Там можно задать параметры, или беспорядочно, "типа все со всем"?
new-2 добавил 11.09.2011 в 00:08
А что нельзя сторонней прогой сделать карту и добавить вручную? Зачем эти извращения?
Да не, работает все нормально. Вопрос был не в этом.
new-2 добавил 10.09.2011 в 23:46
индексный файл в папке на уровень выше (если он существует)
А почему для ГСов свой не используете?
Да не, все правильно, просто иногда по дизайну конкретного места не подходит, иногда нужно по смыслу подобрать размер, дизайн, но это это все так, тонкости, мне так удобней. Да и потом, все названия классов в голове держать - мне проще иногда лишнюю пару строчек прописать, а так да, можно и так.
PS Кстати, к каждому файлу прикреплять отдельный css я бы не стал - получиться файловая помойка. В этом случае однозначно лучше в head прописать.
Так пропиши другой.
Иногда бывает нужно такое, например, для ссылок, чтобы не забивать мозги пользователю оптимизированным бредотекстом, а направить его сразу туда, зачем он пришел.
Я слышал, что директивы robots.txt не являются обязательными для исполнения для пауков. Есть мнение, что о содержании страниц запрещенных в robots ПС прекрасно знают, и считают при этом сайт состоящим наполовину из дублей контента, а то что они не включают в индекс эти страницы, это уже другой вопрос. Санкции за дублированный контент все равно применяются - ведь поисковик прекрасно знает, что для посетителей эти страницы не запрещены, линки на них есть.