Да не слеши виноваты в дублях, а доступность контента по разным урлам.
Можете делать концовку с любым количеством слешей (а дубль с другим количеством слешей с большой вероятностью отфильтруется по другим причинам).
А так говорят, что 2 слеша в http:// были из-за ошибки-спешки.
Китайская промышленность сделала вашу услугу лишней ещё до смерти SEO.
А как именно вы будете продвигать?
Недавно в офис яндекса завалил агент КГБ... ну все же понимают, что законы госдуры не исполняются, а значит реальные данные надо собирать не совсем законными способами, чтобы не отстать от АНБ в накоплении бигдаты.
Не всё учитывают, кое что не-учитывают очень настойчиво.
Ну и понимать ранжирующие системы не умеют. Да и люди-то не все... и маркетологам “ПС” это не надо.
Чтобы дублей избежать — надо делать контент доступным по единственному урлу.
При этом не важно, количество слешей (но по причине тупости проверки уже проиндексированных на стадии принятия решения о включении в индекс, не делайте разные страницы, отличающиеся лишь слешами. Типа:
http://slash.500mb.net/w
http://slash.500mb.net/w/
http://slash.500mb.net/w//
http://slash.500mb.net/w///
не все урлы в индекс попадут, а попадали разные).
Предусмотрительно отключить ЛС.
Стата “удалений подобного” велика? Может достаточно просто подожать?
Хотя, вполне возможно, что “самообучающимся” фильтровалкам можно настраиваться в т.ч. и по элементам HTML-кода, не учитывающимся в ранжировании, и вообще без учёта HTML-разметки. Дешевле...
... хотя, например вот как олгоритму определить — какие именно слова являются спамом?
Может быть какие-то более общие / статистические оценки естественности текста? Или ещё тупее?
wolf, ну вам-то зачем столь сомнительные услуги рекламировать?
Проверяйте в той винде, которую юзает ваша ЦА (стата ОС и чего-то ещё).
Догоняйте.
Наведенная параноя.
Приичём боятся именно гугла, а не хрома (с предусмотренной технической возможностью сливать всё обо всех переходах). Мелкософта тоже не боятся. И производителей железа...