Борьба с дублями на сайте.

Vladimir SEO
На сайте с 19.10.2011
Offline
2053
#61

да никто не скажет ,перед тем как играться с индексацией и клацать все подряд - покажите хорошему программеру сайт может пару компонентов нужно поднастроить и все дубли не полезут , аудит надо делать технический перед тем как что-то мудрить и на форуме спрашивать - один одно скажет другой другое - а кто прав не ясно

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
Trafikgon
На сайте с 24.10.2008
Offline
174
#62

Вся борьба ваша бесполезна с таким вагоном проблем.

. (#)
богоносец
На сайте с 30.01.2007
Offline
774
#63
xVOVAx:
аудит надо делать технический

А кто его читать-то будет?

Тот, кто согласился сделать сайтик занедорого?

Lambre:
подскажите мне почему так?

Нормальные люди изучают проблемы методом набивания стандарных шишек, давно известных специалистам.

Вот если поставить вопрос так:

А вы готовы к тем проблемам, которые заметите завтра?.. а у вас же вместо них давно состряпаны деловые планы.

Vladimir SEO
На сайте с 19.10.2011
Offline
2053
#64
богоносец:
А кто его читать-то будет?
Тот, кто согласился сделать сайтик занедорого?
Нормальные люди изучают проблемы методом набивания стандарных шишек, давно известных специалистам.

Вот если поставить вопрос так:
А вы готовы к тем проблемам, которые заметите завтра?.. а у вас же вместо них давно состряпаны деловые планы.

что значит кто будет читать ,человек 50 тонн на сайт выкинул , как вы думаете прочитает если еще закинет ???))))

нормальные люди не парятся а поручают сложные проблемы специалистам☝

Proofer
На сайте с 04.11.2011
Offline
291
#65
богоносец:
А кто его читать-то будет?
Тот, кто согласился сделать сайтик занедорого?

Услуга пользуется спросом, а значит читать есть кому.

L
На сайте с 15.09.2012
Offline
17
#66

я всё понимаю, я не тупой человек что нужен хороший программёр и тому подобное но нету сейчас программёра нету... уже и так в кредитах... нужно хоть как то минимально начать отбивать деньги. Вот прошу помощи у Вас. сегодня был скачок поситителей... даже терять надежду ведь не нужно. Дубли, закрыли в роботсе, каноникал поставили.... что ещё можно сделать, чтобы побыстрей произошла склейка и выброс не нужных страниц...

Вопрос очень важный стоит закрывать вот такие страницы?

http://orange-store.com.ua/vstraivaemay-tehnika/dnepropetrovsk?page=5

http://orange-store.com.ua/vstraivaemay-tehnika/dnepropetrovsk?page=6

http://orange-store.com.ua/vstraivaemay-tehnika/dnepropetrovsk?page=7

Lichkin-rus
На сайте с 26.11.2012
Offline
57
#67

Без программиста никак. А так есть такие способы:

1. Robots.txt

2. Редирект

Занимаюсь оптимизацией и продвижением сайтов. Работа на результат. Только белые методы.
богоносец
На сайте с 30.01.2007
Offline
774
#68
Lambre:
Вопрос очень важный стоит закрывать вот такие страницы?
Lisa:
Я в свое время некоторое количество аудитов сделала. Заколдобилась, потому что ужас даже не в том, что надо внимательно просмотреть кучу инфы по сайту. Это я нормально делаю и для своих проектов, и для клиентских.

Ужас в том, что это надо красиво оформить, десятью разными и вежливыми способами написать: "тому, что это делал - надо руки оторвать", и корректно перечислить, что именно я понимаю под всеми страницами в фразе "убрать дубли (сортировка, фильтры)".

Это не может стоить дешево.

Это вообще не нужно конечному клиенту.

Это к тем, кому верите

Lambre:
Disallow: /*? стоял сейчас скачал роботс для опенкарта! Люди говорят хороший так я его применил

Вы тем людям хоть чего-то заплатили? Может у вас конфликт какой-то был... или просто они ничего вам не должны.

Lambre:
нужно хоть как то минимально начать отбивать деньги

А если после удаления дублей до вас постепенно дойдёт что-то о следующих проблемах?.. на которые вы и смотреть-то не хотите. Вам их и говорить бесполезно, даже вредно.

xVOVAx:
что значит кто будет читать ,человек 50 тонн на сайт выкинул , как вы думаете прочитает если еще закинет ?

А он вот сам и признался...

Lichkin-rus:
1. Robots.txt
2. Редирект

Сколько времени занимает лечение проблемы?.. а её можно было не создавать. И как быть с редиректом, если посетителям на те страницы переходить-то надо?

УС
На сайте с 04.10.2011
Offline
65
#69

вставлю свои 5 коп.

с дублями надо бороться 301 редиректом.

про robots.txt

он дубли только от вас скрывает, а не от поисковиков.

т.е. находятся страницы с дублями в индексе или нет, но сайт не качественный. ИМХО он на ЭТО внимание обращает, а не на то что в robots написано, хотя точно никто не скажет.

зеленый график должен к нулю стремится

сделайте фильтр аяксом, что бы url не менялся

бамболео бамболео
богоносец
На сайте с 30.01.2007
Offline
774
#70
Утренний стояк:
сделайте фильтр аяксом
Lambre:
нету сейчас программёра нету
Утренний стояк:
про robots.txt
он дубли только от вас скрывает, а не от поисковиков

Хоть кэша нету... это по ссылке повторить поиск, включив опущенные результаты.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий