Swif

Рейтинг
29
Регистрация
20.08.2013

Посмотри коды всех java-скриптов, возможно вконце приписан вредоносный код

DiAksID:

кроме того:
- если роутер системы сам не генерит левые параметры в ссылках, чистить ничего не придётся
- валидация GET запросов отдельная тема

роутеры тут ни при чем - реализация против дублей: Конкуренты покупают пачки ссылок с дублирующимся параметрами на мой сайт. А про валидацию get, если не в этой теме, может посоветуете куда обратиться? По-моему раздел форума соответствующий, и тему создал конкретную, но во всяком случае, от вас, как я понял, по теме комментариев не получу. Посему попрошу не сорить некчемными цитатами

DiAksID, В общем-то да, вашими словами - дрочка на дубли, ну а раз вы корефеи форума, то кроме данного комментария, хотя бы для того чтобы оставить более полезное сообщение, могли бы дать совет - типа

if (substr_count($_SERVER['REQUEST_URI'], "category") >1) ...;

Может тогда ответите как исключить из запроса ненужные параметры - которые не используются в запросе 100% А заодно почистить запрос от sql иньекций?

Можете считать - это вызов вашим знаниям, против нубов.

Может в ДЦ гугла сервак упал с индексами зоны in.ua? Починят и все наладится! Или просто я оптимист?!

Только наверное не сервак, а несколько шкафов с серваками. Это почти как в библиотеке - заходишь в ДЦ, а там стоики, и на каждой табличка с буквами - по алфавиту. И каждый гуглобот приносит индексы в свою стойку.

Нет, эти страницы вообще удалены с сайта, но перед этим проиндексированы как зеркало главной страницы. Смысла в роботс закрывать их не вижу, т.к. поисковик должен их распознать как удаленные и несуществующие с кодом 404. Вопрос в том как помочь ему в этом. Он 5 месяцев индексировал весь сайт, и придется ждать еще столько же, если не дольше пока он зайдет еще раз на эти страницы. А тем временем пока позиции падают, из за дублей главной.

12
Всего: 15