- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Интересует взгляд на различные CMS с точки зрения СЕО. Многие движки генерируют несколько страниц для одного и того же материала. Потом эти страницы отлавливаешь в Я. Вебмастере, удаляешь, редиректишь... но на смену им приходят другие.
Я походил по сайтам различный систем и там, когда речь заходит о СЕО говорят о чем угодно: о кейвордсах, о титлах, о дискрипшене, но о дубле контента очень мало. А ведь это одна из самых злых штук. Вот недавно на этом же форуме человек жаловался на то, что в индексе Гугля он нашел 30+ (!) копий одной страницы с разными адресами.
В общем вопрос такой: в каких CMS одной странице всегда соответствует один УРЛ? При этом неплохо, чтобы УРЛ этот был не слишком длинным.
Уточнение. Разные CMS используются для различных целей, поэтому интересует картина в общем: от систем управления магазинами, до блого-движков.
Уточнение 2. Все системы с различной степенью гемморойности можно подточить и расширить функционал. Поэтому, чтобы избежать непонимания ("чуть подточить" - у каждого ассоциируется с разными трудозатратами и требованиями к уровню знаний в программировании) будем говорить о базовых комплектациях движков, без расширения и хаков.
но о дубле контента очень мало
Потому как в нормальном движке отсутствие этого косяка подразумевается по дефолту.
В общем вопрос такой: в каких CMS одной странице всегда соответствует один УРЛ?
Во многих. Конкретно не подскажу, предпочитаю свои наработки.
Многие движки генерируют несколько страниц для одного и того же материала.
Скорее так: один и тот же материал (который сам по себе существует в единственном экземпляре) появляется на других страницах иерархической структуры данной cms. К примеру на страницах категории, подраздела, автора, архива за год, архива за месяц, архива за день, архива меток, rss и т.п. Как правило вопрос решается простым закрытием индексации (robots.txt).
Скорее так: один и тот же материал (который сам по себе существует в единственном экземпляре) появляется на других страницах иерархической структуры данной cms. К примеру на страницах категории, подраздела, автора, архива за год, архива за месяц, архива за день, архива меток, rss и т.п. Как правило вопрос решается простым закрытием индексации (robots.txt).
Я тут недавно ползал по одному сайту -простой сайт с простыми и понятными урлами (обратил на это внимание), ну и решил потестить немного. Откуда бы я не лез на страницу материала, я всегда видел один и тот же урл: сайт/раздел/id-матирала. После этого мне как-то вспомнились мои постоянные шаманства с роботс.тхт и формой удаления страниц из поиска и стало чуть-чуть грустно.
В общем вопрос такой: в каких CMS одной странице всегда соответствует один УРЛ? При этом неплохо, чтобы УРЛ этот был не слишком длинным.
В CMS MiniWM)))
ИМХО 1c-bitrix вне конкуренции.
А хуже всех (из известных мне цмс с дублями у DataLife Engine там на каждую страничку приходится как минимум по 4 адреса, единственное решение у дле это отключение чпу и удаление файла .htaccess
единственное решение у дле это отключение чпу и удаление файла .htaccess
а также удаление сайта с хоста. Знаешь о robots.txt?
ИМХО 1c-bitrix вне конкуренции.
что в нём такого крутого? (кроме цены)
а также удаление сайта с хоста. Знаешь о robots.txt?
ну-ну, флаг вам в руки, если не жаль времени и сил попробуйте сочинить роботс чтобы закрыть в дле ВСЕ возможные дубли.
что в нём такого крутого? (кроме цены)
Вы хоть раз на битрикс сайты делали? Думаю нет, иначе подобного вопроса у вас бы не возникло. Кстати редакция Битрикс старт (многократно превосходящая ДЛЕ по своим возможностям) стоит всего 4900, это для вас много?
ну-ну, флаг вам в руки, если не жаль времени и сил попробуйте сочинить роботс чтобы закрыть в дле ВСЕ возможные дубли.
ппц как долго. даже если с нуля - не более 3 минут времени или это очень много?
Вы хоть раз на битрикс сайты делали? Думаю нет, иначе подобного вопроса у вас бы не возникло. Кстати редакция Битрикс старт (многократно превосходящая ДЛЕ по своим возможностям) стоит всего 4900, это для вас много?
А без словоблудия и по теме можешь или не судьба? Повторюсь: что конкретно есть такого из seo плагинов, что оно рвёт остальные как тузег грелку.
ппц как долго. даже если с нуля - не более 3 минут времени или это очень много?
Ну замечательно, у вас есть сайт на дле с включенным ЧПУ который не жалко под агс загнать? Дайте мне урл и через пару апов яндекса я завалю вас дублями страничек, от которых вас ни один роботс не спасет. ;)
А без словоблудия и по теме можешь или не судьба? Повторюсь: что конкретно есть такого из seo плагинов, что оно рвёт остальные как тузег грелку.
Источник
В версии 8.5 большое внимание уделено адаптации продукта под требования SEO-оптимизаторов. В продукте исключено дублирование, зацикливание, повторы ссылок. Если раньше при обходе поисковым роботом в продукте насчитывалось примерно 50-60 тысяч уникальных страниц с уникальными URL, то на сегодняшний момент после всех работ, которые проделаны, это всего порядка 800-1000 страниц.
Новый SEO-модуль объединяет в едином интерфейсе всю информацию, которая нужна для поисковой оптимизации контента, и пользователь тут же может вызвать необходимые диалоги и произвести изменения.
Статистика страницы
Возможности, предоставляемые SEO-модулем, помогут владельцам сайтов сократить время на техническую подготовку сайтов к индексации и сосредоточиться на содержательной работе по продвижению своих проектов. Теперь сам сайт отобразит ту самую информацию, что обычно получают с помощью внешних приложений и поисковых машин. При этом работа SEO-модуля заменяет трудоемкую правку кода сайта в оптимизационных целях.
Модуль ориентирован не только на SEO-специалистов, но и на обычных пользователей CMS, и это важная и отличительная особенность модуля. Так, разработчикам, которые самостоятельно занимаются SEO-оптимизацией, новые инструменты позволят интегрировать в продукт свои сервисы, модули для работы с постоянными клиентами. В свою очередь, простые пользователи самостоятельно проконтролируют успехи в продвижении сайта, увидев это по результатам, переходам, по ряду других отображаемых параметров. Модуль полезен всем и в равной степени.
SEO-модуль включен во все редакции продукта.
Специалисты компании «Ашманов и партнеры» выполнили тестирование контентных модулей продукта, а также консультировали разработчиков «1С-Битрикс» при разработке SEO-модуля. По итогам тестирования выдан сертификат, подтверждающий соответствие продукта требованиям совместимости с роботами современных поисковых систем.
В продукте исключено дублирование, зацикливание, повторы ссылок.
делается одмином в одминке + robots.txt = 5 минут времени.
а остальное: "бла-бла-бла". 1c всегда любит трепать языком - никакой конкретики.
http://www.1c-bitrix.ru/products/cms/features/seo.php#tab-example-link
жестоко - куча фигни, в красивой оболочке. seo модуль нашли, блин.