- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
например, воткнуть в урл знак вопроса с последующим псевдопараметром (любым, от балды)
такой фокас со многими сайтами прокатывает
защита примерно такая (в .htaccess):
Я обычно в роботсе закрываю типичные параметры:
Disallow: /?
Disallow: /&
Годный срач, подписался :)
---------- Добавлено 17.06.2012 в 17:30 ----------
dlyanachalas, вопрос - тебе то не пофиг, кто и зачем "валит" чужой сайт? Или ты думаешь, что сюда щас яндексоиды набегуть исправлять свои косяки? Они даже хлебные крошки полгода правили.
Плюс у них явная корпоративная политика в силу не самых откровенных для публики глюков - никогда ни в чем не признаваться.
ТС, ты лол. Яндекс давно уже научился склеивать дубли, даже если кто навредит - яшка через пару нормальных апов все поклеит, в зависимости от того, какие ссылки на сайте проставлены. Или ты думаешь это настолько унылый поисковик, что даже от такой херни не застрахован?
это настолько унылый поисковик, что даже от такой херни не застрахован?
Мало того, что он не застрахрован), он еще и намеренно всю эту хрень вытаскивает:)
komdir
Все он нормально делает, просто алгоритм такие страницы не сразу выкидывает, а оставляет потом только те, на которые идут ссылки с внутренних страниц. Так что не надо тут ля-ля.
komdir
Все он нормально делает, просто алгоритм такие страницы не сразу выкидывает, а оставляет потом только те, на которые идут ссылки с внутренних страниц. Так что не надо тут ля-ля.
как пример, ответ от платона:
"Указанная страница Вашего сайта доступна также по адресу (без слэша на конце):
В некоторых случаях наличие дублирующих страниц может некорректно обрабатываться нашим роботом. В скором времени необходимая Вам страница вернется в выдачу, но, чтобы избежать подобных ситуаций в будущем, рекомендую Вам установить перенаправление 301 со страниц без слэша на страницы со слэшом или наоборот."
При этом, если не закрыть подобные страницы, они будут выплывать с определенной периодичностью. Проверено.)
А если яше помочь найти, то он не побрезгует.
Так что от греха подальше.
По зоопарку в гугле я вообще молчу.
komdir
Еще раз прочитай мой пост, не тупи плз)
Если на сайте используются ссылки с GET-параметрами, то избавиться от преднамеренных дублей практически невозможно. Нужно учитывать и порядок следования параметров и наличие лишних и т.п. С ЧПУ, конечно, все проще: можно запретить вообще параметры (отдавать 404).
При этом, если не закрыть подобные страницы
Если не закрыл, то не надо тогда жаловаться. Это детские ошибки. Оптимизацию делать умеют, ссылки покупать тоже, а закрыть дубли не могут.
-= Serafim =-, если в гете параметров 10, то ты для них это, скрипт напишешь или как? Надеюсь, не более, чем за пять минут? Ибо ни один движок этого не тянет, из известных мне.