Так правила написанные вами тоже работают.
Проблема что гугл, в отличии от яндекса, закрытое в роботсах хранит в "дополнительном поиске"
А какие могут быть проблемы в гугле при закрытии дублей?
Все правильно написали выше. все что содержит данное выражение будет индексироваться.
Логичней было бы сразу в вебмастере проверить, не зря же такие делают инструменты
А, ну да. привычка. А то кажется незаконченным :D
Так не через админку. Ftp, шаблон сайта. Какой нибудь костыль типа "Если в урле страницы есть "?___from_store=" - то выводить ноуиндекс ноуфоллоу
А так я не заморачивался с фильтрами и написал
Disallow: /*?
И не обращаю внимания. (Но я то с яндексом работаю)
з.ы. мне кажется правильным: [Del]
Насколько я знаю как не закрывай в роботсах - все равно будет висеть в дополнительном поиске.
Попробуйте в роботсах оставить открытыми, а на таких страницах прописать ноуиндекс/ноуфоллоу
А это почему? Дубли то по умолчанию мусор для поиска
Это у вас нормально?
ну вы на этом акцент сделали.
(Отличаются дизайном и структурой)
Вы описали нормальную страницу для людей, что бы она была интересна пользователю и он получил максимальный ответ на свой запрос .
Лендинги тут не причем, так везде можно делать
Веселуха. Дискотека прям
Оставайтесь на линии, ваш звонок очень важен для нас.