- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
... Ну покажите хотя бы сайтег, на котором нельзя создать дубля... не говоря уж об избавлении ПС от частичного дублирования. Создателям CMS это всё нах не надо, они, с упорством идейных... готовы доказывать, что и ПС это не надо. Но... см название форума.
богоносец, со всем уважением, но ваша зацикленность на поиске "урлов-дублей" иногда выглядит как затянувшийся стёб над нубами.
главное, что бы система сама не плодила адреса дублей и не подсовывала их ботам, это необходимое и достаточное условие защиты от дублирования контента. предположение, что "завистники и зложелатели" начнут тратить время и ресурсы специально засовывая в индекс ПС какие-то особо хитрож*пые ссылки на "мой любимый СДЛ" суть не более чем оторванная от реальности паранойя...
Друзья, не ссорьтесь... :)
главное, что бы система сама не плодила адреса дублей и не подсовывала их ботам, это необходимое и достаточное условие защиты от дублирования контента.
Мы как раз это и обсуждаем, как сделать такую систему, вернее, используя какие методики можно этого добиться, а именно, отдать для ПС нужный нам контент и набор уникальных ссылок на странице, а посетителю показать полную и удобную навигацию.
... Мы как раз это и обсуждаем ...
ещё раз надо повторить то, что тут уже не раз озвучивали? ок: это "обсуждение" запоздало лет на 10 минимум, тема давно стала банальностью с сотнями надёжных системных и независимых реализаций с многолетней историей...
Ну покажите хотя бы сайтег, на котором нельзя создать дубля... не говоря уж об избавлении ПС от частичного дублирования. Создателям CMS это всё нах не надо, они, с упорством идейных... готовы доказывать, что и ПС это не надо. Но... см название форума.
богоносец, пожалуйста, гляньте этот сайт http://www.demo.2movietime.ru. ЧПУ данного движка не создает дублей и вместе с тем обладает хорошей настраиваемостью. Например, для страниц просмотра фильма можно создать такие варианты:
Примеры шаблонов для адреса фильма «Супермен» и полученный вид адресной строки:
Шаблон: online/[alias]/[id]/ -> Адрес: http://example.com/online/superman/105/
Шаблон: [id]-[alias].html -> Адрес: http://example.com/105-superman.html
Шаблон: [alias]-[id].html -> Адрес: http://example.com/superman-105.html
Шаблон: [category]/[alias]/[id]/ -> Адрес: http://example.com/boevik/superman/105/
Конечно, избавление от дублей - не было первостепенной задачей при разработке ЧПУ. Но найти разделы, создающие дубли, мне найти не удалось.
... Но найти разделы, создающие дубли, мне найти не удалось.
вы не уловили засаду в поставленной задаче 😂 на самом деле скрытый посыл звучит как то так "покажите сайт, который гарантированно не выдаст одинаковый контент на нескольких выдуманных кем-то вариантов урла", если такие урлы придумать можно (в доказательство обычно приводится список урлов с кашей из левых параметров) - всё, приговор "система плодит дубли" адназначен. факт того, что такой урл станет реальный дублем, только после его попадания в индекс скромно игнорируется.
ЗЫ: кстати, прекрасно индексирумые AJAX сайты с хеш-навигацией бьют этот постулат влёгкую (в роутере паттерн хеша требует строгого соответствия) ...
факт того, что такой урл станет реальный дублем, только после его попадания в индекс скромно игнорируется....
а разве это проблема?
---------- Добавлено 09.09.2013 в 01:03 ----------
В надёжно прозомбированной массе мозгов создателей сайтов нет почти ничего окромя Content-Type: text/html
кстати, http://www.allave.ru/test.html
а разве это проблема?
не закрытая от индексации страница результатов поиска? ;) это не баг системы, это кривые руки админа. ситуация уровня "домена с и без www" - CMS должна и это отслеживать?...
не закрытая от индексации страница результатов поиска?
а проверить или хотя бы сниппет прочитать? ;)
а проверить или хотя бы сниппет прочитать? ;)
ни о чём не говорит ;) что бы просочился мусор директива Disallow: /tser.html могла отсутствовать ранее (даже только пару дней по ошибке).
мусор в дополнительном индексе гугла торчит годами (ведь адрес отдаёт 200, хотя и 404 отваливаются у него очень не быстро), только вот не участвует в ранжировании. ну и никто не мешает всю эту пачку левых адресов разом удалить из индекса руками, кстати.
ну а сниппет честный гугел по ходу дела удалил сам в подтверждение текущего заперта индексации, всё легитимно...
что бы просочился мусор директива Disallow: /tser.html могла отсутствовать ранее (даже только пару дней по ошибке).
Немного не так.. лечится meta noindex или x-robots (но с этим опять же в другой раздел)
а проверить или хотя бы сниппет прочитать?
Там, кстати ссылка в сниппете на "подробнее" стоит с рецептом лечения (и пояснениями)
Но найти разделы, создающие дубли, мне найти не удалось.
Примеров, как про убивца индекса ещё не приводили? типа такого?