- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Опишите подробно что у вас за проект и какое ПО использует.
У меня хостится там 9 сайтов. все кроме одного на вордпресе, один - DLE. Посещалка от 30 человек до 1300!
Вот ответ хостера на мою просьбу довать конкретики:
Повышенное потребление ресурсов в данном случае вызвано высокой активностью индексирующих систем на ваших сайтах:
[03/Aug/2017:05:24:46 +0300] 1.650 1.650 200 37.9.113.133 vitnik.ru GET /tag/pishhevye-dobavki HTTP/1.1 "Mozilla/5.0 (compatible; YandexBot/3.0; +http://yandex.com/bots)" "-" 14941 141.8.192.88 a0076429
[03/Aug/2017:05:24:49 +0300] 2.551 2.551 200 217.69.134.30 srpj.ru GET /sitemap-pt-post-2016-11.xml HTTP/1.1 "Mozilla/5.0 (compatible; Linux x86_64; Mail.RU_Bot/Fast/2.0; +http://go.mail.ru/help/robots)" "-" 1458 141.8.192.88 a0076429
[03/Aug/2017:05:24:49 +0300] 3.150 3.150 200 37.9.113.124 vitnik.ru GET /tag/pishhevye-dobavki HTTP/1.1 "Mozilla/5.0 (compatible; YandexBot/3.0; +http://yandex.com/bots)" "-" 14941 141.8.192.88 a0076429
Например, за сегодня к вашим сайтам было направлено 45994 запросов, из них 22850 - от индексирующих систем.
В связи с этим рекомендуем увеличить интервал между последовательными запросами со стороны поисковых роботов при помощи директивы Crawl-delay в robots.txt со значением не меньше 10, подробная инструкция:
https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml
Также на наиболее посещаемые сайты необходимо установить плагин кеширования WP Super Cache (например, vitnik.ru). Как мы можем видеть ранее использовался плагин hyper-cache, однако сейчас он уже удален.
Подробная инструкция по установке и настройке плагина изложена в соответствующей статье:
http://blog.sprinthost.ru/2015/01/21/wp_super_cache/
После выполнения указанных действий необходимо подождать сутки, пока все наиболее посещаемые страницы будут сохранены в кеше, после этого оценить изменения на графике потребления ресурсов сервера вашим аккаунтом: https://cp.sprinthost.ru/customer/load/index .
В принципе рекомендации хостера вполне здравые.
Так же переключите PHP на 7.0 и добавьте opcache - если не сделали этого до сих пор.
И крау делай - как рекомендует хостер.
Такая проблема часто бывает, когда боты начинают часто сканировать сайт, особенно семраш и т.п.
Либо VPS - на хостинге в большинстве случаев столкнетесь с такой проблемой.
сбор статистики осуществлялся некорректно — итоговые значения округлялись до третьего знака после запятой.
от оно как бывает 😕
Попробуйте перебраться на бегет например, там есть месяц бесплатно.
Почти уверен что всё будет ок.
Могу дать личную скидку -20% пожизненно, пишите в лс