Jovian

Рейтинг
78
Регистрация
21.08.2011
serdget:
Где-то, кто-то, чего-то,видел, как какой-то...

Ни читать, ни писать вам не надо (*осиливать*).

Jovian:
XPraptor, так в этом случае будет 404 ответ (страница "r" не существует) - это тоже приемлемо. Дублей-то нет. ;)

Забираю слова обратно: 301 на 404 - тоже очень плохо.

А вот такой вариантик оттестируйте ;) :

RewriteCond %{THE_REQUEST} ^GET\ /.*\;.*\ HTTP/

RewriteCond %{QUERY_STRING} !^$
RewriteRule .* http://www.site.com%{REQUEST_URI}? [R=301,L]


---------- Добавлено 20.06.2012 в 21:06 ----------

new player:
Подскажите, как закрыть дубли, если это интернет магазин построенный на GET запросах? Или хотя бы пример. Это вообще возможно?

Эх, если бы было всё так просто...

iqmaker, её тут уже 100 раз спалили. Достаточно почитать и станет понятно.

XPraptor, так в этом случае будет 404 ответ (страница "r" не существует) - это тоже приемлемо. Дублей-то нет. ;)

dima2k, спасибо.

Еще вот тут нарыл хорошо и грамотно разложенную инфу по htaccess, вдруг кому понадобится (знание инглиша обязательно): http://corz.org/serv/tricks/htaccess2.php.

The WishMaster:
И где-то не тут. У нас таких хитрожопых нищебродов не любят.

У "нас" любят хитрожопых, но молчаливых олигархов? :D

п.с.: ТС, вам с такими вопросами лучше бы вообще ничего не писать. Да, и я тоже бы за такое, что вы спрашиваете, яички бы ваши чик-чик. ;)

Кстати, попутно вопрос:

А для htaccess что нужно написать, чтобы редиректило 301-ым или отдавало 404-ый при добавлении "?anyshit" к адресу?

Лично мне это актуально для малостраничников статичных, сделанных без CMS.

Никто не поделится правилами модреврайта?

yanus:
версия sh404sef?

3.3.0.1122

Далее не обновляюсь, так как есть зависимое и не пашет нормально на более новых версиях.

Dimanius:
Да надо просто сделать так, что бы в индекс попадали страницы, которые прописаны в карте сайта. Остальные по умолчанию не лезут в индекс. И Яндекс формализовал бы свое отношение и вебмастер всегда знал, что у него будет в индексе.

Гипотетически, может возникнуть та же проблема, но с другого "конца" - с самим сайтмапом и включением/исключением в/из него нужного/ненужного. Речь об автоматическом и динамическом сайтмапе. Я с этим даже на простом (относительно) сайте столкнулся разок, чего уж говорить о сложных проектах.

Miha Kuzmin (KMY):
Ну вот это глупо. Как только сайт попадет (точнее если попадет) в топ - сразу растащат.

Я это прекрасно понимаю, но всё же Сёрч - место похлеще ТОПа. ;)

Для ТОПа припасены мелкие козыри в виде "Яша - Уникальные Тексты" и "Гугл - автор Я".

---------- Добавлено 18.06.2012 в 11:16 ----------

yanus:
Для экономии времени могу сказать, что sh404sef не склеивает чпу ссылки к которым дописан ?bredoparametr
Решается с помощью canonical или robots.txt

index.html?bred - отдало 404.

п.с.: а чего сайты ходить искать? forum.searchengines.ru - вот вам подопытный пример. Можно завалить? 🍿

Miha Kuzmin (KMY):
Адрес в студию.

Сэр, я очкую. :D

И не из-за дублей возможных и прочего связанного с этим, а из-за контента. Да и просто не хочется светить.

yanus:
На "голой" джумле все почти так как описано, но стоит добавить энное количество компонентов и начинается жесть

Очень верное замечание. ;)

Поэтому добавлять что-то надо 100 раз подумав, а потом, убив кучу времени и средств, настроить (плагины и их корректировка). Даже с тем, что лично у меня есть, свистопляска была немаленькая.

Всего: 730