zend921

Рейтинг
23
Регистрация
13.01.2009

RewriteRule ^index.php$ / [R=301,L]

все так все таки решил прописать. вроде все ок/ с index.php когда заходишь перенаправляет на domain.com

но вместо путей в урлах как у меня прописано например aprice в браузере показывает цифры..

тоесть прежний вариант, который раньше был, а должно aprice.. урлы ведут на странице на aprice.. а в строке наверху браузера. где урлы пишешь. ведет на цифры.. что не так?

RewriteCond %{HTTP_HOST} ^www.domain.com$ [NC]

RewriteRule ^(.*)$ http://domain.com/$1 [R=301,L]

RewriteCond %{HTTP_HOST} ^www.domain.com/index.php [NC]

RewriteRule ^(.*)$ http://domain.com/$1 [R=301,L]

RewriteBase /

RewriteRule aprice/(.*?)-.*/(.*?)-.*/$ index.php?act=drugs&cat=$1&pill=$2

RewriteRule aprice/(.*?)-.*/ index.php?act=drugs&cat=$1

RewriteRule aprice/ index.php?act=drugs

RewriteRule shop/(.*?)-.*/ index.php?act=shops&id=$1

RewriteRule shop/ index.php?act=shops

RewriteRule articles/(.*)/ index.php?act=articles&t=view&id=$1

RewriteRule articles/ index.php?act=articles

RewriteRule news/(.*)/ index.php?act=news&t=view&id=$1

RewriteRule news/ index.php?act=news

RewriteRule contacts/ index.php?act=contacts

RewriteRule shop-redir/(.*) index.php?act=shop-redir&redir_name=$1

RewriteRule page/(.*)/ page.php?id=$1

RewriteRule page/ page.php

вот мой .htaccess..

а все таки.

Что лучше. Например два ключевика близких по смыслу к странице и спец. подобранных.

Или ключевик+что то оригинальное. типа on (или At, не знаю как правильно) +domain.com ибо прочитал что гугл больше любит сайты с уникальными тайтлами.

прописал.

Redirect 301 /index.php http://domain.com прописал в .htaccess

захожу на domain.com - пустая страница и надпись.

Firefox определил, что сервер перенаправляет запрос на этот адрес таким образом, что он никогда не завершится.

и что про типа "закольцованность" вроде...

потом погуглил. и нашел что то подобное, сам подкоректировал.

RewriteRule ^index.php$ / [R=permanent,L]

захожу на domain.com/index.php переносит на domain.com . значит все правильно сделал да?

vakuum:
в ЮА, по моим проектам, хорошо подтянулись сайты, возраст которых от года. С возрастом от 3-х до 6-ти месяцев просели.

Извиняюсь за вопрос. имеется ввиду возраст имеется ввиду домена, или ?

и я закрыл. и гугл из индекса выкинул.

Triol:
Нет, если у тебя будет запрет на папку, но разрешение на один из файлов в папке то файл проиндексируется.

имеется ввиду "запрет на папку".. запрет на категорию да?

Triol:
Нет, если у тебя будет запрет на папку, но разрешение на один из файлов в папке то файл проиндексируется.

Ясно тоесть щас у меня все нормально. меня просто ввели в заблуждение.

MasterYan:
Давно оптимизирую один свой проект. И вот недавно мой сайт потеснил какой-то выскачка.
Давай анализировать, а у него штук 80 ссылок с блогов.

Возникло 2 вопроса:

Сервис для размещение ссылок в блогах, кроме блогуна ?
Чем ссылки с блогов лучше ссылок с сайтов?

Не фарма англ. случайно?. я то очень напоминает мой сайт :)

Digital Helen:
Дело скорее всего в специфике самих страниц. Что там за контент, насколько он уникален? Какое соотношение содержательной части к шаблонной (меню, сквозные блоки)?

Уникален. рерайт глубокий. по 1к текста на каждой странице.. по соотношение содерж. части к шаблонной. не понял маленько. урл в личку скинул. может дело ещё что в "Чтобы показать наиболее значимые результаты, мы опустили некоторые" всяких левых паг штук 800.. это у меня скрипт самописный так глюканул чтоли.. удалил их с сайта. а они пустые остались но с меню. или дело в это может быть /ru/forum/471834

monia:
Нет, не проиндексирует. А если тебе нужно проиндексить страницы зачем папку с ними закрывать?

всмысле даже сканировать не будет линки.. просто в роботсе там часть страниц в категориях разрешены..

папку закрыл потому что нужно только часть страниц проиндексировать (с уник. контентом)..

Проиндексировать то проиндексирует может, в вебмастер тулс проверил. только если получается с левых сайтов линки указать на страницы.. а так скан запрещен да.

zend921 добавил 13.03.2010 в 15:11

Triol:
Если страниц не много то можно прописать в роботсах конкретно для каждой страницы.
Либо просто попробуй классифицировать по другому станицы и закрыть ненужные.

Я и прописал отдельно для каждой страницы, но мне наверху написали про "не проиндексирует".. тоесть он даже сканировать ее не будет на наличие страниц-линков?

всего нужно разрешить 70 страниц.. они находятся в 30 категориях разных.. надо закрыть остальные 500 страниц. вот что в роботс прописал. http://mastertalk.ru/topic108288.html вот здесь обсуждал это.

структура сайта такая. http://domain.com/drugs/3-Women%27S-Health/

вот надо как то разрешить только несколько паг в women's health.. я сделал роботс как в линке выше указанно... но запрет стоит на папки. другс. и на категорию вумен хеалф.

и получается гугл никак не узнает о моей паге в вумен хилф. чтобы проиндексировать ее. ибо папки запрещены.? так?

1 234 5
Всего: 46