- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
... Ну покажите хотя бы сайтег, на котором нельзя создать дубля... не говоря уж об избавлении ПС от частичного дублирования. Создателям CMS это всё нах не надо, они, с упорством идейных... готовы доказывать, что и ПС это не надо. Но... см название форума.
богоносец, со всем уважением, но ваша зацикленность на поиске "урлов-дублей" иногда выглядит как затянувшийся стёб над нубами.
главное, что бы система сама не плодила адреса дублей и не подсовывала их ботам, это необходимое и достаточное условие защиты от дублирования контента. предположение, что "завистники и зложелатели" начнут тратить время и ресурсы специально засовывая в индекс ПС какие-то особо хитрож*пые ссылки на "мой любимый СДЛ" суть не более чем оторванная от реальности паранойя...
Друзья, не ссорьтесь... :)
главное, что бы система сама не плодила адреса дублей и не подсовывала их ботам, это необходимое и достаточное условие защиты от дублирования контента.
Мы как раз это и обсуждаем, как сделать такую систему, вернее, используя какие методики можно этого добиться, а именно, отдать для ПС нужный нам контент и набор уникальных ссылок на странице, а посетителю показать полную и удобную навигацию.
... Мы как раз это и обсуждаем ...
ещё раз надо повторить то, что тут уже не раз озвучивали? ок: это "обсуждение" запоздало лет на 10 минимум, тема давно стала банальностью с сотнями надёжных системных и независимых реализаций с многолетней историей...
Ну покажите хотя бы сайтег, на котором нельзя создать дубля... не говоря уж об избавлении ПС от частичного дублирования. Создателям CMS это всё нах не надо, они, с упорством идейных... готовы доказывать, что и ПС это не надо. Но... см название форума.
богоносец, пожалуйста, гляньте этот сайт http://www.demo.2movietime.ru. ЧПУ данного движка не создает дублей и вместе с тем обладает хорошей настраиваемостью. Например, для страниц просмотра фильма можно создать такие варианты:
Примеры шаблонов для адреса фильма «Супермен» и полученный вид адресной строки:
Шаблон: online/[alias]/[id]/ -> Адрес: http://example.com/online/superman/105/
Шаблон: [id]-[alias].html -> Адрес: http://example.com/105-superman.html
Шаблон: [alias]-[id].html -> Адрес: http://example.com/superman-105.html
Шаблон: [category]/[alias]/[id]/ -> Адрес: http://example.com/boevik/superman/105/
Конечно, избавление от дублей - не было первостепенной задачей при разработке ЧПУ. Но найти разделы, создающие дубли, мне найти не удалось.
... Но найти разделы, создающие дубли, мне найти не удалось.
вы не уловили засаду в поставленной задаче 😂 на самом деле скрытый посыл звучит как то так "покажите сайт, который гарантированно не выдаст одинаковый контент на нескольких выдуманных кем-то вариантов урла", если такие урлы придумать можно (в доказательство обычно приводится список урлов с кашей из левых параметров) - всё, приговор "система плодит дубли" адназначен. факт того, что такой урл станет реальный дублем, только после его попадания в индекс скромно игнорируется.
ЗЫ: кстати, прекрасно индексирумые AJAX сайты с хеш-навигацией бьют этот постулат влёгкую (в роутере паттерн хеша требует строгого соответствия) ...
факт того, что такой урл станет реальный дублем, только после его попадания в индекс скромно игнорируется....
а разве это проблема?
---------- Добавлено 09.09.2013 в 01:03 ----------
В надёжно прозомбированной массе мозгов создателей сайтов нет почти ничего окромя Content-Type: text/html
кстати, http://www.allave.ru/test.html
а разве это проблема?
не закрытая от индексации страница результатов поиска? ;) это не баг системы, это кривые руки админа. ситуация уровня "домена с и без www" - CMS должна и это отслеживать?...
не закрытая от индексации страница результатов поиска?
а проверить или хотя бы сниппет прочитать? ;)
а проверить или хотя бы сниппет прочитать? ;)
ни о чём не говорит ;) что бы просочился мусор директива Disallow: /tser.html могла отсутствовать ранее (даже только пару дней по ошибке).
мусор в дополнительном индексе гугла торчит годами (ведь адрес отдаёт 200, хотя и 404 отваливаются у него очень не быстро), только вот не участвует в ранжировании. ну и никто не мешает всю эту пачку левых адресов разом удалить из индекса руками, кстати.
ну а сниппет честный гугел по ходу дела удалил сам в подтверждение текущего заперта индексации, всё легитимно...
что бы просочился мусор директива Disallow: /tser.html могла отсутствовать ранее (даже только пару дней по ошибке).
Немного не так.. лечится meta noindex или x-robots (но с этим опять же в другой раздел)
а проверить или хотя бы сниппет прочитать?
Там, кстати ссылка в сниппете на "подробнее" стоит с рецептом лечения (и пояснениями)
Но найти разделы, создающие дубли, мне найти не удалось.
Примеров, как про убивца индекса ещё не приводили? типа такого?