G-and-Y

G-and-Y
Рейтинг
185
Регистрация
29.06.2013
18572d

вот такой он

AddDefaultCharset windows-1251
php_value display_errors 0

Options +FollowSymLinks -Indexes
RewriteEngine on

RewriteCond %{HTTP_HOST} ^www.chasi.s-0.net$ [NC]
RewriteRule ^(.*)$ http://chasi.s-0.net/$1 [R=301,L]

## ЧПУ для Luxury Shop v. 2.0
RewriteRule ^actions(.*) index.php?main_page=actions [QSA,L]
RewriteRule ^articles(.*) index.php?main_page=articles [QSA,L]
RewriteRule ^brend(.*) index.php?main_page=brend [QSA,L]
RewriteRule ^conditions(.*) index.php?main_page=conditions [QSA,L]
RewriteRule ^contact_us(.*) index.php?main_page=contact_us [QSA,L]
RewriteRule ^content(.*) index.php?main_page=content [QSA,L]
RewriteRule ^products_all(.*) index.php?main_page=products_all [QSA,L]
RewriteRule ^question(.*) index.php?main_page=question [QSA,L]
RewriteRule ^shippinginfo(.*) index.php?main_page=shippinginfo [QSA,L]
RewriteRule ^shopping_cart(.*) index.php?main_page=shopping_cart [QSA,L]
RewriteRule ^tovar(.*) index.php?main_page=tovar [QSA,L]
RewriteRule ^picture/(.*)/(.*)$ /view_pic.php?pic=$2&type=$1 [QSA,L]
RewriteRule ^confirmation(.*) index.php?main_page=shopping_cart [QSA,L]

ErrorDocument 404 /index.php



Для тех кто не понял я пошутил :)

прийдет агс 99.9%

Для анализа переходов по каждой ссылке и его учета нужно не мыслимые мощности, единственный + от такой ссылки это траф и больший % не попадания донора под агс.

Сайт hybrid-avto.ru

Первое что бросилось в глаза

1-роботс (пробел между строчками в роботс не допустим ) сделайте такой


http://alaev.info/blog/post/4143

Недопустимо наличие пустых переводов строки между директивами 'User-agent' и 'Disallow' ('Allow'), а также между директивами 'Disallow' и 'Allow'.

http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml

2-уберите h1 c заголовка сайта он должен быть 1.

3-уберите пока рекламу, трафика все равно нет.

4-и пишите платонам

Ждите мб все вернется, на будущее знайте, Работает не трогай!

В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву 'Host' необходимо добавлять в группе, начинающейся с записи 'User-Agent', непосредственно после директив 'Disallow'('Allow'). Аргументом директивы 'Host' является доменное имя с номером порта (по умолчанию 80), отделенным двоеточием.
#Пример корректно составленного robots.txt, при обработке
#которого директива Host учитывается

User-Agent: *
Disallow:
Host: www.myhost.ru

а как это объяснить из справки яши?

Жесткая волна агс :( Яша оборзел решил нас по меру пустить...

А как насчет партнерок с оплатой за действие?

Всего: 1642