Хорошо ещё сэкономили на том, что чертежи бомбы скоммуниздили.
Из-за кривой настройки серваков дубли возникают.
Любой символ в урле может ...
/ru/forum/974002
Да не слеши виноваты в дублях, а доступность контента по разным урлам.
Можете делать концовку с любым количеством слешей (а дубль с другим количеством слешей с большой вероятностью отфильтруется по другим причинам).
А так говорят, что 2 слеша в http:// были из-за ошибки-спешки.
Китайская промышленность сделала вашу услугу лишней ещё до смерти SEO.
А как именно вы будете продвигать?
Недавно в офис яндекса завалил агент КГБ... ну все же понимают, что законы госдуры не исполняются, а значит реальные данные надо собирать не совсем законными способами, чтобы не отстать от АНБ в накоплении бигдаты.
Не всё учитывают, кое что не-учитывают очень настойчиво.
Ну и понимать ранжирующие системы не умеют. Да и люди-то не все... и маркетологам “ПС” это не надо.
Чтобы дублей избежать — надо делать контент доступным по единственному урлу.
При этом не важно, количество слешей (но по причине тупости проверки уже проиндексированных на стадии принятия решения о включении в индекс, не делайте разные страницы, отличающиеся лишь слешами. Типа:
http://slash.500mb.net/w
http://slash.500mb.net/w/
http://slash.500mb.net/w//
http://slash.500mb.net/w///
не все урлы в индекс попадут, а попадали разные).
Предусмотрительно отключить ЛС.
Стата “удалений подобного” велика? Может достаточно просто подожать?
Хотя, вполне возможно, что “самообучающимся” фильтровалкам можно настраиваться в т.ч. и по элементам HTML-кода, не учитывающимся в ранжировании, и вообще без учёта HTML-разметки. Дешевле...
... хотя, например вот как олгоритму определить — какие именно слова являются спамом?
Может быть какие-то более общие / статистические оценки естественности текста? Или ещё тупее?
wolf, ну вам-то зачем столь сомнительные услуги рекламировать?