Ragnarok

Ragnarok
Рейтинг
239
Регистрация
25.06.2010

LEOnidUKG, поделитесь рецептом деобфускации

rereg, оно работает.. может, там что-то ещё нужно, чтобы не срабатывало то что идёт дальше?


<IfModule mod_php5.c>
php_flag session.use_trans_sid off
#php_value display_errors 1
#php_value mbstring.internal_encoding UTF-8
</IfModule>

<IfModule mod_rewrite.c>
Options +FollowSymLinks
RewriteEngine On
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-l
RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_FILENAME} !/bitrix/urlrewrite.php$
RewriteRule ^(.*)$ /bitrix/urlrewrite.php [L]
RewriteRule .* - [E=REMOTE_USER:%{HTTP:Authorization}]
</IfModule>


---------- Добавлено 04.08.2015 в 15:16 ----------

победил таким способом:

    RewriteCond %{HTTP_HOST} ^sub\.domain\.com$ [NC]
RewriteCond %{REQUEST_URI} !^/catalog/kuhni [NC]
RewriteCond %{REQUEST_URI} !/bitrix/urlrewrite.php$ [NC]
RewriteRule ^(.*)$ http://domain.com/$1 [R=301,L]

rereg, кэш отключён, дополнительно проверяю CURLом через терминал.

редирект для не-категории срабатывает:

http://sub.domain.com/payment/ => http://domain.com/payment/ 

для категории кидает на rewrite:

http://sub.domain.com/catalog/kuhni/iz-akrila/ => http://domain.com/bitrix/urlrewrite.php

код вставлен в .htaccess сразу после

Options -Indexes 
ErrorDocument 404 /404.php

RewriteCond %{HTTP_HOST} ^sub\.domain\.com$ [NC]
RewriteCond %{REQUEST_URI} !^/catalog/kuhni
RewriteRule ^(.*)$ http://domain.com/$1 [R=301,L]

после него идёт только битриксовский

rereg:

RewriteCond %{HTTP_HOST} ^sub\.domain\.com$ [NC]
RewriteCond %{REQUEST_URI} !^/catalog/kuhni
RewriteRule ^(.*)$ http://domain.com/$1 [R=301,L]

%{REQUEST_URI} начинается с "/"

не помогло.. кидает на битриксовский domain.com/bitrix/urlrewrite.php

проще было бы сказать, видя сайт.

Но даже так, почему сдвигаете не через отрицательный margin-top? Или откуда там такой отступ сверху, может, проще его убрать?

rustrek, как раз недавно попался на этом.

Проблема в LIMIT http://habrahabr.ru/post/41968/

Использование LIMIT
SELECT… FROM table LIMIT $start, $per_page

Многие думают, что подобный запрос вернет $per_page записей (обычно 10-20) и поэтому сработает быстро. Он и сработает быстро для нескольких первых страниц. Но если количество записей велико, и нужно выполнить запрос SELECT… FROM table LIMIT 1000000, 1000020, то для выполнения такого запроса MySQL сначала выберет 1000020 записей, отбросит первый миллион и вернет 20. Это может быть совсем не быстро. Тривиальных путей решения проблемы нет. Многие просто ограничивают количество доступных страниц разумным числом. Также можно ускорить подобные запросы использованием покрывающих индексов или сторонних решений (например sphinx).

Сбой системы анонимизации

nelvin_, кэш провайдера, скорее всего. Попробуйте уточнить у поддержки

Всего: 3369