Решение проблемы с дублями страниц в Joomla 1.5
Дело в том, что JoomSEF - это дополнительная нагрузка на сервер и сложности при обновлении
Гениальная по своей сути фраза :)
Дизайнер должен заниматься дизайном, кодом страницы и CSS - верстальщик, javascript и прочими вещами программист. SEO пускай занимаются соответствующие специалисты.
Бред. Чем HTML код статических страниц отличается от такого же кода HTML, который генерирует Joomla я не знаю. Хотя если люди сайты двигать не умеют, то нужно ведь кого-то крайним назначить.
И так. Давайте по-порядку. Какую версию Joomla вы имеете ввиду? 1.0, 1.5 или 1.6?
Я серьезно изучал 1.5 и 1.6. В 1.6, кстати, наконец-то допилили работу с сессиями и убрали лишние запросы. В итоге при включенном кешировании на генерацию главной уходит 2-3 запроса. В 1.5 около 7. Это не так уж и много. Без кеша 1.5 генерировала 13 запросов для главной. Запросы не сложные и довольно быстро выполняются.
Для DLE, например, для случаев с включенным кешированием на генерацию главной уходят те же 2-3 запроса
В плане кода 1.6 написана лучше.
Если рассмотреть Joomla 1.5 в плане SEO, то главная проблема - это дубли страниц. Эту проблему можно легко решить с помощью разработанного мною модуля. Выкладывал уже на этом форуме. Дубли клеятся 301 редиректом. Модуль работает со стандартным ЧПУ Joomla.
Вторая проблема - keywords и description для разделов и категорий. Это тоже можно допилить.
Также можно нормально оптимизировать шаблон в плане SEO, модули для перелинковочки поставить и так далее. В итоге по ВЧ запросам можно без особых проблем в топ попасть
Теги h предназначены для заголовков. Все теги h. Вроде как в любой книжке по HTML это написано.
Загонять описание в h2 относится к поисковому спаму, текст в h3 тоже
Целиком правильный подход, кстати. Копирайтеры должны писать тексты, которые должны выполнять определенную роль. Это может быть как раскрытие той или иной темы, это может быть реклама товара или услуги, так и "продающие" тексты. Грамотно написанный тест уже имеет достаточно большие шансы снискать благосклонность поисковиков. Автоматически решается и излюбленная всеми тема тошноты и вхождений ключевиков. Если текст написан на определенную тему, то название темы в тех или иных падежах будет встречаться в самом тексте.
SEO должны заниматься другие специалисты. Если вдруг виновным в низких позициях окажется или назначат текст, то его нужно поправить.
Закладки - это, конечно, хорошо. Даже очень хорошо. Но и о поисковиках тоже забывать не стоит. У меня есть один контентный портал. Статей кучи, посетителей. Для таких порталов обычно 40-60% приходят с закладок, остальные с поисковиков. Так вот решил я провести небольшой эксперимент по оптимизации заголовков. Добавил h2, h3 заголовки, изменил немного h1 и title. Что и как менять я описал в предыдущих сообщениях. В результате траффик с Яндекса вырос раза в полтора и продолжает расти от апа к апу.
Лишних несколько К трафика никому не помешает ;)
Читать его уже десяток лет учат. Весьма небезуспешно, кстати. Естественно написанный текст можно с большой долей вероятности определить машинным способом. Не буду вдаваться в подробности. Почитайте о том же избитом законе Зипфа (http://www.antula.ru/law-zipf.htm).
Чтобы увеличить эту самую вероятность определения написан ли текст для людей или нет Google, Яндекс и прочие поисковики вводят огромное количество фильтров. Эти фильтры анализируют в первую очередь частоту повторения тех или иных слов, анализируют их плотность на странице, формы, падежи, построение предложений, в обязательном порядке анализируют тематику текста. Для одной тематики 2-3 вхождения на 1000 слов это уже много, для другой и 100 вхождений считается нормой.
Цель этих всех фильтров одна: выявить насколько текст естественен и насколько точно соответствует запросу. Здесь есть 2 варианта: или бороться с теми всеми фильтрами, подбирать плотность, карту размещения ключевиков, или просто писать статьи для людей.
Google - это отдельная история, особенно с конца февраля. Будем надеятся, что все утрясется, а дальше дело техники.
Вы изначально неверно ставите вопрос. При неверной постановке вопроса невозможно получить правильный ответ. На самом деле не стоит усложнять и без того простые вещи.
Критерием оценки того или иного текста является то, насколько текст информативен и легко читается.
В понятие "информативен" входит насколько хорошо текст описывает тот или иной запрос пользователя. Естественно, при этом сам запрос в тексте может один или несколько раз войти целиком и еще пару раз в различных падежах. Если он частично повторяется в заголовках различного уровня, то это дополнительный плюс в ранжировании. Также в понятие информативности входит то, насколько заголовки соответствуют содержанию. Если они сильно не соответствуют, то это называется поисковый спам. За это сайт может быть понижен в выдаче. От постоянных повторов ключевиков информативность тоже может пострадать. За это тоже наказывают.
В понятие "легко читается" как раз и входит плотность тех самых ключевиков. Главное, чтобы все выглядело естественно. Плотность как таковая роли вообще не играет. У меня есть сайты со страничками с плотностью ключевиков 10-20% и ничего. Довольно уютно чувствуют себя в топе. Главное, чтобы такая плотность ключевых слов была оправдана с позиции пользователя и не вызывала раздражения.
Собственно, все сводится к копирайтерам. Если они пишут хорошо и интересно, то такая страничка будет выше. Если нет - ниже. Все как и должно быть.
Вот, собственно, прямым текстом сказано как нужно писать заголовки. Надо будет все же хэлп Яндекса почитать :)
На самом деле все не так просто :)
Начну издалека.
Задача любой поисковой системы выдавать наиболее релевантную выдачу, то есть выдачу, которая наиболее полно соотвествует тому, что ищет пользователь. Это цель любого поисковика и любая смена алгоритмов направлена на ее достижение.
Иными словами, в начале выдачи должны находится страницы с качественной информацией по интересующему пользователя вопросу.
Как же поисковики определяют это самое качество той или иной страницы. Рассмотрим внутренние факторы.
Это в первую очередь:
- насколько заголовок страницы соответствует запросу пользователя
- насколько заголовок страницы соответствует содержимому
- насколько само содержимое релевантно запросу
- насколько правильна семантическая структура страницы
На последнем пункте остановлюсь поподробней. Многие, наверное, сталкивались с тем как пишутся статьи, книги и другие подобные вещи. Есть заголовки, есть подзаголовки различных уровней, есть прараграфы, есть списки, есть выделения и прочие вещи. Чудным образом такие же элементы есть в языке разметки HTML. Рассмотрим зачем же они все нужны.
h1 - заголовок первого уровня. Это можно считать названием статьи. У каждой статьи оно одно и наиболее точно отображает суть. Надеюсь, теперь понятно почему размещать 2 и больше раз h1 на странице лишено смысла и логики? У любой статьи должно быть короткое и лаконичное название. При чем это название должно точно описывать содержимое статьи.
h2 - подзаголовок второго уровня. Название разделов. Он уже может быть подлинней так как зачастую в подразделах конкретизируется тот или иной аспект темы статьи. Это как бы намекает на его содержимое.
h3 - подзаголовок. Тут конкретизируются аспекты темы в h2. То есть содержание h3 конкретизирует содержание заголовка h2.
h4 и так далее аналогично.
Сакральный смысл параграфов, списков и так далее я пропущу. Тут все и так понятно.
strong и em. Эти теги предназначены для выделения важных участков текста. Что тут непонятного?
Что там еще? Плотность ключевых слов. Это вообще бредовое понятие. Каждая качественно написанная статья освещает ту или иную тему (запрос пользователя). Это обычно предполагает использования слов или падежей из заголовков. В некоторых случаях эти слова могут быть выделены тегами strong. Вот и вся суть. Пишите нормальные тексты для людей, которые дают ответ на тот или иной вопрос. В нормальных текстах так называемые ключевики употребляются и так.
Еще момент. Объем. Кроме структуры также важен объем информации. Естественно, что страницы где ее больше могут дать более полный ответ на запрос пользователя. Следовательно такие страницы должны быть выше в выдаче. Также информации на странице не должно быть слишком много иначе ее будет сложно воспринимать. Оптимальный объем - 1000-2000 слов. Формат небольшой статьи.
Уникальность. Оригинал той или иной статьи всегда считается более ценным чем копия. Следовательно, ранжироваться он должен выше. Здесь все понятно, думаю.
Вот по таким параметрам поисковые системы и оценивают ту или иную страницу. О ссылках на нее и траст сайта - это отдельная история.
С точки зрения поисковых систем страницы с лучшей структурой заголовков и содержания будут выше, страницы с уникальным и релевантным контентом будут выше, страницы с оригинальным контентом будут выше.
Вот и вся уличная магия. Об этом Inetessentials и говорит.
Нормально сделанные статьи по НЧ/СЧ релевантным СЧ/НЧ запросам сами в топ лезут. Если взять ВЧ, то тут чуть ссылок прикупил - и уже плотно в топе. Это все проверялось неоднократно на практике. В случае с ВЧ запросами - это были запросы с 100+К в месяц по вордстату.
Оптимальная тошнота зависит от множества факторов и не является каким-то конкретным значением. У меня на одном из проектов есть страницы, где около 2000-3000 слов и около 200 повторов одного из ключевых слов и около 100 другого. При этом текст написан для людей в первую очередь. Странички в топ сами залетают по нужным НЧ-СЧ запросам.
Есть странички, где таких повторов меньше, есть даже страницы, где 1000-2000 слов и всего лишь пару вхождений. Те тоже в топе. Сами лезут.
Единственное, что их объединяет - это то, что статьи писались людьми для людей. Если текст хорошо написан и хорошо читается, то поисковикам он тоже будет нравится. Цель то у поисковиков как раз такие тексты и находить.
Разместился. Площадкой и размещением доволен. Рекомендую.