Midnik

Рейтинг
83
Регистрация
17.08.2008
siv1987:
Нет, к сожалению именно такие вещи в htaccess не настраиваются. Для htaccess есть файл index.php, он рабочий, остальные параметры которые ему передаются его не волнуют. Вы должны у себя в скрипте настроить правильную обработку всех входящих переменных и выдавать соответствующие заголовки. Как вариант, можно через мод_реврайт проверить входящие переменные, и если они не соответствует шаблону закрыть закрыть доступ или сделать редирект на верный вариант, что-то примерно по вашему случаю

RewriteEngine On
RewriteCond %{QUERY_STRING} ^(name=[&]+&op=cat)[.]
RewriteRule ^(index\.php) /$1?%1 [R=301,L]


cat естественно заменить на имена ваших категорий, или смотря что у вас там

Полазив немного в интернете, потупив пару часов..... Пришел за вопросом-советом

У сайта максимально длинные урлы с переменными идут вот такого вида:

/index.php?name=Pages&op=cat&id=132

/index.php?name=Pages&op=page&id=132&pid=11599

Т.е. переменная Name - это текущий раздел Pages в рамках которого и построен весь сайт (т.е. используя только этот раздел, одна переменная)

Есть переменная Op - которая выдает либо подразделы Сat, которые определяются по Id, либо выдает страницу Page (можно назвать ее подробным описанием), которая определяется по подразделу Id (привязанному к Cat), имея свой уникальный айди номер - Pid

Я правильно из данных соображений (опираясь на Ваш пример) строю следующую конструкцию:

RewriteCond %{QUERY_STRING} ^(name=[A-Za-z]+&op=[A-Za-z]+&id=[0-9]+&pid=[0-9])[.]

?

Я не особо в синтаксисе, а как я понял это стандартный синтаксис регулярных выражений пхп, которые в свое время я не изучал вообще. И вот выше описанной строчкой мы определяем наш урл и если он не определяется, то редиректим пользователя третьей строчкой на главную - правильно? А если соответственно редеректить нужно на страницу ошибки, то что-то вот такое должно получиться:

RewriteRule ^(404\.html) /$1?%1 [R=301,L]?

siv1987:
А еще лучше делать нормальную проверку у себя в скрипте.

Увы, но я не понимаю о чем речь. Я думал, что такие вещи настраиваются в хэтэасессе. Сайт создан на старой цмс slaed. Впринципе, в свое время перелапачивал его полностью своими силами, тямы хватало, может и сейчас хватит, если поднаправите в какую сторону копать.

systemiv:
Делайте редирект например на главную, при ошибке 404, а еще лучше создайте страничку 404 и сливать туда

Здравствуйте, вроде бы так и сделал - посмотрите, я прописал директиву соответствующую и создал страницу ошибки:

Midnik:

Прописал строчку:
ErrorDocument 404 /404.html


Однако при добавлении аброкадабры к существующей ссылке, открывается страница с последним действующим параметром идя по переменным справа на лево. Например урл:
http://site.ru/index.php?name=Pages&op=cat
и к нему добавить следующее
http://site.ru/index.php?name=Pages&op=catывавыаываыва
то в строке браузера останется данный урл, и откроется страница с содержанием
http://site.ru/index.php?name=Pages&op=cat

Если http://site.ru/index.php?name=Pages&op=cappppppp , то т.к. переменная cat была нарушена урл в строке браузера остается такой же, а выдается содержимое страницы http://site.ru/index.php?name=Pages

Если http://site.ru/index.phываыва (нарушена главная страница), то в строке браузера остается данный урл, а содержимое выдается файла 404 ошибки.

И проблему я здесь же процитировал.

Написал в сапорт Яндекса, жду ответа от них...

st_anger:
не стоит испытывать беспокойства по этому поводу, гораздо страшнее ситуация, когда текст в кавычках - страница не на первом месте или ее вообще нет в выдаче

Волнение все же испытываю, т.к. совместно с этим сайт крайне плохо ранжируется по целевым запросам, по большей части нет даже на 50-60 позициях, единичные случаи попадания на 10-20 позиции. Соответственно нет трафика.

А сайт весьма хорошо вылизывается, не первый год существует, есть естественные ссылки, показатели не нулевые, контент уникально-качественно проработанный (верстка, заголовки, изображения с графиками). Причем таких сайта у меня 3 с одной и тойже проблемой.

  • Тексты? Переписывал, снижал оптимизацию. Безрезультатно.
  • Ссылочный спам? На одном проекте (из этих 3х) были сняты все ссылки купленные, не помогло. На других сапо-ссылок нет, в основном ссылки с миралинкса и гогетлинкса + естественные источники.

Куда еще копать?

Digdug:
Трафик идет на страницу?

Поискового трафика практически нет (единичные заходы в неделю), есть с контекстной рекламы (не более 10 переходов в сутки).

Alexby:
Значит, Яндекс не считает сайт первоисточником (шутка). Видимо, страницы других сайтов считает более релевантными запросу.

Не думаю. Точно такой же пример как у ТС, смотрю по ссылке "еще" (с сайта) и более релевантные страницы не вижу, вижу еще две страницы с частичным упоминанием куска текста (т.е. некоторых ее слов).

Кто еще что думает по этому поводу? Писать Платонам?

Ерунду Яндекс выводит вместо целевой страницы! Началось на одном гнз (информационном) сайте 8 декабря. Огромное количество запросов ВК и ВЧ. В итоге, за этот период трафик свалился с 35 тыс./сутки до 8 тыс./сутки с пс Яндекс и продолжает падать. Выдаваемая страница пляшет из апдейта в апдейт. Сайт старый, трастовый, с кучей естественных ссылок и небольшой закупленной массой (разбавка присутствует). Последние полгода ни каких кардинальных работ не проводилось.

Был бы глюк, откатили.

Вчера региональный сайт с гз-запросами повел себя аналогично, целевая страница по основному запросу "Натяжные потолки" из топ3 выкинуло, как тут принято говорить, за жоп20. Выкинуло из-за смены на не целевую страницу.

apigon:
достал яндекс с заменой целевой страницы 😡

Выдал по вч (десятка два), находящимся в топ5-10, не целевые страницы, в итоге позиции просели на 15-20 пунктов, трафик просто рухнул! Сайт без привязки (вся россия), направление геонезависимое, не коммерческое. Глюк?

По остальным проектам положительно-нормальный апдейт.

mymind:
Есть увеличение Выпавших страниц ? В Панели ВМ посмотрите, дату последнего обращения. Я на всех серверах в логах вижу отдачу 200 OK.

Время последнего посещения сайта роботом - 5.02.2010

Загружено роботом - 1993

Исключено роботом - 1728

HTTP-статус: Доступ к ресурсу запрещён (403) - 1646

Все печально:(

maxstepan:
Сервер Lima. Убито еще 200 страниц.

Аналогично, с Lima продолжают выпадать страницы.

123
Всего: 28