Никак. Разницу между динамически генерируемой странице и статической страницы понимаете? То то и оно.
Смотря конечно куда должен идти реврайт. Сам по себе он правильный, дальше уже зависит от локиги, либо от других перекрывающих правил.
Бывает. Если вы о редиректе который есть тут, то не совсем понятно причем он.
Проблема спама не зависит от движка, а от того какие меры для этого применяются. На любом форуме можно повесить нормальную капчу, или индивидуальную защиту
CURLOPT_PROXY
WTF?
if($proxy){
curl_setopt($ch, CURLOPT_PROXY, $proxy);
}
если делать по уму
var host = window.location.hostname.replace(/^www\./, '');var links = document.querySelectorAll('a');var href, reg = new RegExp('^http://'+host+'/');for(var i=0; i<links.length; i++){ href = links; if(/^http:/.test(href) && ! reg.test(href)){ links.onclick = function(){return false;} }}
Дофига портянок, многое можно было написать более компактно в несколько рег выражениях. Собсно
RewriteRule ^c([0-9]+)-gal.html$ index.php?id_cat=$1&view_type=gal
и тд, что не реврайтится и куда нужно чтобы реврайтилось.
опера - все ок
Никто. Показывайте свой htaccess
joost, а этот запрет по вашему на что?.. Правильно - для запрета индексации в папках. Следовательно если папка - значит сработает Disallow так как длина у него больше, если не папка - Allow. Так можно разрешить только с .html только которые в корне сайта.
Экзампл
Ссылка /folder/file.html соответствует и шаблону Disallow: /*/*.html и Alow: /*.html, но будет выбран Disallow: /*/*.html так длина у него больше.
Ссылка /file.html подходит только для Alow: /*.html, значит применяться будет только он, если нет других соответствующих директив большей длины
Полезные ссылки
http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#simultaneous
http://webmaster.yandex.ru/robots.xml
Disallow: */?
OR
Disallow: /*/?