sirdki1

Рейтинг
73
Регистрация
30.11.2009

Честно говоря, большой траффик будет требовать много времени на суппорт, а сейчас его вообще нет ни у кого. Проект делали около 1,5 месяцев, потом дорабатывали еще около трех.

Программисты прилагаются на некоторое время, которое необходимо на доработки под нужды клиента, обучение и т.д. Потом могут без проблем поддерживать за символическую плату

sirdki1, поделюсь с вами своим опытом. Несколько лет хостился на Таймвеб, затем стали приходить письма счастья, мол переходите на устойчивый к нагрузкам тариф, который оказался в 4 раза дороже, чем тот, которым я пользовался на тот момент. Тут я оказался в ситуации, в которой вы сейчас находитесь - уменьшить нагрузку или искать новый хостинг... с оптимизацией нагрузки ничего не получилось, хотя было сделано очень многое (бан паукам по анализам логов, Crawl-delay для яндекса, вирусы, кэши, смэши и много другое) Принял решение сменить хостера... и... начались хождения по мукам - расцвет и закат Вайтсайт, жесть от Купертино.. все это в первом ряду. Кроме измотанных нервов получил твердое убеждение, что свои любимые сайты буду держать только у мастодонтов, ведь за все время, что я сидел на том же Таймвеб, мои сайты, в дневное время, лежали максимум 3 часа... а тут за 2 месяца, почти !!!5 недель!!! в оффлайне. Уверен, что Таймвеб тоже ДДоСят, но как то это не сильно заметно.
Теперь к главному. После долгой процедуры выбора среди мастодонтов перенес свой сайт в BeGet. Понравилась фишка, что увеличить CPU можно без перехода на высший тариф, а просто подключив не дорогую услугу. Но самое примечательное, что мой сайт, за почти что два месяца не достиг и половины допустимой нагрузки, что конечно же наводит на мысль))) И еще, если вы долго пользовались Таймвеб, вам будет удобна панель управления, тк она практически идентична Таймвебовской.
зы На BeGet, пока перенес только один сайт, остальные мои и все клиентские по сей день спокойно живут на Таймвебе.

Спасибо, изучу Beget сегодня обязательно. Поставит на всех WP плагины Hyper Cache и Wp Clean, посмотрим как нагрузка будет.

ccess.log скачайте и проанализируйте, если не найдете аномалий то запросите информацию у суппорта по поводу расхода процессорного времени, они могут выявить источник и дать развернутый ответ.

Спасибо, запросил

Заказывал копирайтинг перевода, который мне сделали. После работы над текстом он стал читабельным и интересным.

В общем рекомендую.

Ребята, всем спасибо! Вроде нормально все, уже 20 часов не появляется редирект, хотя раньше после удаления сразу высвечивался.

Что сделал: у меня было подозрение на один сайт, т.к. его купил недавно и было установлено больше 20 плагинов. Начал на нем, как посоветовал SeVlad (за что ему огромнейшее спасибо), сверять основные файлы с дистрибьютивом WP. В теме был найден файл header1.php с началом eval(base64...

Удалил его, еще раз поменял пароль от FTP и вроде бы теперь все гуд:)

SeVlad:
Так мб там и сидит шелл\бекдор, который айболит не поймал?

Ещё вариант дыры - отдельный скрипт. Сравни по-файлово с оригинальным дистр-ом движка. В своих файлах поищи по расширению чего (не) заливал.

А по домену редиректа в файлах искал?

ЗЫ. ИМХО. Стартпост может служить образцом обращения за помощью в разделе "безопасность".

Спаси большое за советы. По домену искал редирект, пусто((

А файлы да, сравню, хорошая идея, хотя бы все основные сверю...

Неправильно директивы пишете. Вот ваш адрес данный для проверки

http://www.secthor.ru/catalog/survei...1603lightnet-s

вот запись в роботсе

Disallow: /catalog
allow: /catalog/surveillance/videoregistratoryi/

аллоу приоритетнее дисаллоу и почему вы тогда удивлены, что адрес который вы проверяете разрешен?

Блин, я не обратил внимание. Раньше было allow: /catalog/surveillance/videoregistratoryi/$, сейчас это только и оставил. Спасибо большое, проблема решена!

Смотря что нужно.
Строка "allow: /catalog/surveillance/videoregistratoryi/" есть, значит эту папку индексировать можно. Посему этот урл http://www.secthor.ru/catalog/survei...1603lightnet-s и разрешен.
В общем, это лыжи, а не асфальт виноват.
Ну и вдогонку - Allow следует все-таки писать с большой буквы, а переводы строк внутри секции не стоит делать. Хотя Яндекс и читает Ваш robots.txt правильно.

P.S. Долго пишу

и Вам огромное спасибо! Оставил allow: /catalog/surveillance/videoregistratoryi/$, теперь все гуд:)

Ой много... С ноября где-то он такой... сейчас добавил только строку /catalog/ в disallow, но ничего не изменилось

можно попробовать еще так
добавив тег для нужной страницы с помощью if и php
<meta name="robots" content="noindex, nofollow"/>

Нет, не вариант. Т.к. есть страницы нужные в индексе, то делать только вручную. А 3000+ страниц добавлять вручную не вариант.

ппц, и у меня на сайтах вирусняк... Не смотрел посещаемость, а сейчас взглянул, уже больше недели в несколько раз меньше обычного.

Ну это уже не в какие ворота... Отписал в суппорт...

Всего: 173