Да, пробовал.
Ошибку в обоих случаях не выдаёт,
"не работает" значит в header картинок нет записей, которые бы кэш браузера их добавляли.
location ~* \.(jpg|jpeg|gif|png)$ { proxy_pass http://92.63.97.253:9090/; expires 720h; }
Ошибку выдаёт
2015/01/13 02:17:05 [emerg] 20913#0: "proxy_pass" cannot have URI part in location given by regular expression, or inside named location, or inside "if" statement, or inside "limit_except" block in /etc/nginx/nginx.conf:88
location ~* \.(jpg|jpeg|gif|png)$ { root /var/www/site.com; expires 720h; }
root /var/www/SITE.COM;
или
root /var/www/USER/data/www/SITE.COM; ? (у меня в этой директории сайт)
и так и так не работает.
Видимо что-то ещё тут мешает.
Огромное спасибо!
Да, CentOS
А я не знал про Crawl-delay, спасибо большое. Зря писал код, зато пока кодил, добавил заодно возможность отслеживать количество запросов от поисковиков в день.
Да нормальный сервер, больше 20$ в месяц не хочется платить.
В смысле как защиту от DDOS сделал? Написал сам, грузит конечно БД, но зато помогает. Если в программировании не разбираетесь, то проще CloudFlare.
Получилось так, что у меня для Яндекса стали закрыты не мусорные страницы, а вообще весь сайт, сейчас улучшаю DDOS защиту, чтобы не реагировала на ботов поисковиков.
В Яндекс.Вебмастере > Исключённые страницы
Я нашёл причину вылета из поиска, виноват сам походу, защита от DDOS забанила IP робота Яндекса за частые запросы, в итоге мгновенно появилось 12146 страниц с ошибкой "Документ имеет размер 0 байт". А я уж испугался, что за просто так сайт выкинули со всех позиций.
Ну хоть не одного у меня сайт с топ 10 выпал по всем запросам. Значит есть шанс что пофиксят, если будете активно писать в саппорт.
Сайт с 2008 года, СДЛ, уникальный контент, никаких накруток посещаемости и поведенческих, даже ссылки не покупал никогда. А в итоге в топе даже по точным запросам сплошной мусор.
Такая же картина, написал в https://webmaster.yandex.ru/site/feedback.xml