RewriteRule ^index.php$ / [R=301,L]
все так все таки решил прописать. вроде все ок/ с index.php когда заходишь перенаправляет на domain.com
но вместо путей в урлах как у меня прописано например aprice в браузере показывает цифры..
тоесть прежний вариант, который раньше был, а должно aprice.. урлы ведут на странице на aprice.. а в строке наверху браузера. где урлы пишешь. ведет на цифры.. что не так?
RewriteCond %{HTTP_HOST} ^www.domain.com$ [NC]
RewriteRule ^(.*)$ http://domain.com/$1 [R=301,L]
RewriteCond %{HTTP_HOST} ^www.domain.com/index.php [NC]
RewriteBase /
RewriteRule aprice/(.*?)-.*/(.*?)-.*/$ index.php?act=drugs&cat=$1&pill=$2
RewriteRule aprice/(.*?)-.*/ index.php?act=drugs&cat=$1
RewriteRule aprice/ index.php?act=drugs
RewriteRule shop/(.*?)-.*/ index.php?act=shops&id=$1
RewriteRule shop/ index.php?act=shops
RewriteRule articles/(.*)/ index.php?act=articles&t=view&id=$1
RewriteRule articles/ index.php?act=articles
RewriteRule news/(.*)/ index.php?act=news&t=view&id=$1
RewriteRule news/ index.php?act=news
RewriteRule contacts/ index.php?act=contacts
RewriteRule shop-redir/(.*) index.php?act=shop-redir&redir_name=$1
RewriteRule page/(.*)/ page.php?id=$1
RewriteRule page/ page.php
вот мой .htaccess..
а все таки.
Что лучше. Например два ключевика близких по смыслу к странице и спец. подобранных.
Или ключевик+что то оригинальное. типа on (или At, не знаю как правильно) +domain.com ибо прочитал что гугл больше любит сайты с уникальными тайтлами.
прописал.
Redirect 301 /index.php http://domain.com прописал в .htaccess
захожу на domain.com - пустая страница и надпись.
Firefox определил, что сервер перенаправляет запрос на этот адрес таким образом, что он никогда не завершится.
и что про типа "закольцованность" вроде...
потом погуглил. и нашел что то подобное, сам подкоректировал.
RewriteRule ^index.php$ / [R=permanent,L]
захожу на domain.com/index.php переносит на domain.com . значит все правильно сделал да?
Извиняюсь за вопрос. имеется ввиду возраст имеется ввиду домена, или ?
и я закрыл. и гугл из индекса выкинул.
имеется ввиду "запрет на папку".. запрет на категорию да?
Ясно тоесть щас у меня все нормально. меня просто ввели в заблуждение.
Не фарма англ. случайно?. я то очень напоминает мой сайт :)
Уникален. рерайт глубокий. по 1к текста на каждой странице.. по соотношение содерж. части к шаблонной. не понял маленько. урл в личку скинул. может дело ещё что в "Чтобы показать наиболее значимые результаты, мы опустили некоторые" всяких левых паг штук 800.. это у меня скрипт самописный так глюканул чтоли.. удалил их с сайта. а они пустые остались но с меню. или дело в это может быть /ru/forum/471834
всмысле даже сканировать не будет линки.. просто в роботсе там часть страниц в категориях разрешены..
папку закрыл потому что нужно только часть страниц проиндексировать (с уник. контентом)..
Проиндексировать то проиндексирует может, в вебмастер тулс проверил. только если получается с левых сайтов линки указать на страницы.. а так скан запрещен да.
zend921 добавил 13.03.2010 в 15:11
Я и прописал отдельно для каждой страницы, но мне наверху написали про "не проиндексирует".. тоесть он даже сканировать ее не будет на наличие страниц-линков?
всего нужно разрешить 70 страниц.. они находятся в 30 категориях разных.. надо закрыть остальные 500 страниц. вот что в роботс прописал. http://mastertalk.ru/topic108288.html вот здесь обсуждал это.
структура сайта такая. http://domain.com/drugs/3-Women%27S-Health/
вот надо как то разрешить только несколько паг в women's health.. я сделал роботс как в линке выше указанно... но запрет стоит на папки. другс. и на категорию вумен хеалф.
и получается гугл никак не узнает о моей паге в вумен хилф. чтобы проиндексировать ее. ибо папки запрещены.? так?