immo,
По поводу скорости загрузки попробуйте в .htaccess вставить следующее:
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP:Accept-encoding} !gzip [OR]
RewriteCond %{HTTP_USER_AGENT} Konqueror
RewriteRule ^(.*)\.(css|js)$ $1.nogzip.$2 [QSA,L]
</IfModule>
<IfModule mod_headers.c>
Header append Vary User-Agent
<FilesMatch .*\.(js|css)$>
Header set Content-Encoding: gzip
Header set Cache-control: private
</FilesMatch>
<FilesMatch .*\.nogzip\.(js|css)$>
Header unset Content-Encoding
FileETag MTime Size
<ifmodule mod_expires.c>
<filesmatch ".(jpg|jpeg|gif|png|ico|css|js)$">
ExpiresActive on
ExpiresDefault "access plus 1 month"
</filesmatch>
</ifmodule>
<IfModule mod_expires.c>
ExpiresActive On
ExpiresByType application/javascript "access plus 1 year"
ExpiresByType text/javascript "access plus 1 year"
ExpiresByType text/css "access plus 1 year"
ExpiresByType image/gif "access plus 1 year"
ExpiresByType image/jpeg "access plus 1 year"
ExpiresByType image/png "access plus 1 year"
<FilesMatch .*\.(gif|jpg|png)$>
Header set Cache-control: public
<IfModule mod_setenvif.c>
BrowserMatch "MSIE" force-no-vary
BrowserMatch "Mozilla/4.[0-9]{2}" force-no-vary
Должно ускорить.
Есть сайтец под агс-ом видимо, молодой, месяца 3-4 отроду. Так как это инет магазин описания к товарам небольшие (ну а нафик поэмы писать ~400-500 символов более чем). Недавно влетел под агс видимо из за этого. Так вот к чему веду, форумчане советовали статей написать 10-20-30-..., с роботсом поработать дополнительно, ну и так по мелочам в частности.
Глянул Ваш сайт, я конечно не спец, но то что сразу не оч порадовало это скорость загрузки главной 13/100 по пэйдж спид (возможно и на полет пули не влияет, но сказано развивайте, а это вроде относится :) ), w3c валидатор ошибок насыпал, тоже не уверен что это как-то может относится в агс, но опять же (развивайте). Опять же это вовсе может и не относится к сайту, который висел в бане до того как сайт прикрутили, но всё же. Быстро пробежался, может чем-то поможет :)
А еще попробуйте весь сайт прогнать на неуник. Где-то на форуме умы програмульки придумали, весь сайт сразу прогоняет, долго правда, но всё же. Если не найдете, стукните в личку, завтра буду на работе, скину.
Zonk,
Прошу зачислить бонус. Ник alexbard
хм.. почти поправили маленький сломанный серверок..?
Маленький, а сцуко важный = ) ай-яй
главное не останавливаться и чаще обновлять страничку Я ))
починили... (((
тэлфин пользуем.
Подключение тысяч 6 вроде было с 1-ним московским номером. Если брать два, то получится тысяч 8.
Из плюсов:
- Глубина очереди говорят что до 200 (кол-во людей, которые будут слушать музыку)
- Переадресация на городские, sip, и прямые мобильные (рекламные номера) бесплатная. Т.е купив 1 рекламный моб. тариф получаем 2 прямых номера (виртуальный и прямой моб.).
- Все входящие звонки на мобильные идут с номеров на которые звонят люди, т.е можно в справочнике записать названия магазов и не путаться при ответе (если виртуальных номеров несколько)
- Абоненка ха номер 1000 в месяц + 500 виртуальный офис.
Минусы:
- Если у них планируются работы и не будет связи, то не предупреждают об этом
- Дибильный гудок, который слышит человек при звонке, потом только начинается приветствие.
- Качество связи изредка не радует, в основном когда звонят из удаленных уголков страны.
Из тех, кого нашел с такими услугами, это были самые дешевые граждане. В общем за такую цену вроде как всё устраивает.
Извините, может быть этот вопрос уже задавался. Программка роботс учитывает или нет? У меня закрытые страницы добавила для анализа...
отсыпь, а?!
Согласен.
В общем выявили одну из возможных проблем. Главным зеркалом было указанно с www, все страницы сайта создавались автоматом без www. Гугловский генератор сайтмапа при генерации карты с www выдавал что на сайте только одна страница - морда. Могло ли это стать причиной того, что все страницы кроме морды вылетели из поиска? Более того заметил такую вещь: в "Загружено роботом" начали отбиваться страницы двухмесячной давности, раньше стоял другой двиг. Причем Вчера было к примеру 400 страниц загруженных роботом, сегодня их стало уже 500. Причем ни одной из этих страниц не существует. Как такое может быть? понятно что Я.вебмастеру верить в принципе нельзя, но не на столько же...
Пришел ответ от Платонов:
Здравствуйте!
Мы проверили, Ваш сайт присутствует в поиске и находится пользователями. Но часть страниц, действительно, отсутствует в результатах поиска, при этом никаких санкций на них не наложено.
Наши алгоритмы устроены так, чтобы на запросы пользователей давать наиболее полный ответ, и в связи с этим в результаты поиска попадают наиболее релевантные и уникальные страницы сайтов:
http://help.yandex.ru/webmaster/?id=1114408
О наших рекомендациях по развитию сайта Вы можете прочитать на следующих страницах:
http://help.yandex.ru/webmaster/?id=1108944
http://help.yandex.ru/webmaster/?id=1108945
При этом наш робот помнит о других страницах сайта; если на них присутствуют ссылки, он периодически переобходит их, и со временем они также могут быть включены в результаты поиска. Но, к сожалению, гарантировать включение тех или иных страниц в результаты поиска мы не можем.