Тогда вполне возможно что это или боты спамеров (собирают email) или действительно воруют контент.
WhiteSmartFox добавил 07-02-2011 в 15:21
Можете обратится к программисту (на том же фрилансе), чтобы он написал дополнение к движку которое не позволит выкачивать более определенного кол-ва страниц за секунду/минуту/час с одного ип адреса. Это относительно не сложно. Суть обращаться только к небольшой таблице со списком последних ип адресов и если кол-во запросов с ип адреса больше определенного числа выводить 404 ошибку. Таблицу периодически чистить удаляя старые значения.
Кстати да, на Unix вирусов на несколько порядков меньше, либо поставить virtual box, либо просто поставить Unix систему и работать с сайтом через неё. Другой вариант блокировать фтп в панели после каждого сеанса работы (если не так часто пользуйтесь фтп).
Может это боты поисковиков? Даже если у вас страницы получаются через форму, может на них поставили кучу ссылок и боты банально выкачивают сайт?
Или вы кому-то насолили и вам устроили мини DOS атаку.
Есть, блокировать автоматом ип адреса, т.е. написать код, скажем запросили больше 30 запросов за 5 минут, блокировать адрес и выводить капчу, как в гугле или яндексе.
Если у вас VDS или выделенный сервер можно поставить и настроить фаервол который это делает автоматом.
P.S. Вообще поговорите с хостером существуют специальные фаерволы для сервера, которые блокируют ип адреса автоматом при определенном кол-ве запросов (защита от простой и тупой DOS атаки).
Попробуйте например far.
WhiteSmartFox добавил 07-02-2011 в 14:42
Сохраните в текстовом файле все пароли и просто каждый раз копируйте из него.
WhiteSmartFox добавил 07-02-2011 в 14:44
Мне кажется это может не спасти, по моему есть вирусы которые могут перехватить пароль из самого фтп соединения.
Я бы посоветовал использовать внешний скрипт (на другом хостинге) который в часы пик соединялся с вашим сервером каждые сколько-то минут и считал когда сервер вернет заполненную страницу.
Что-то вроде
$time = getTime();
file_get_contents("страница вашего сайта");
$time1 = getTime() - $time;
1) Зачем "$text" если достаточно $text (без "")?
2) Если $text меньше 300 символов как я понимаю этот код вообще ничего не вернет? Или если в тексте нет пробелов (такое тоже иногда бывает)
По моему лучше так:
$i = strpos ($text.' ', ' ', 300)-1;
$text=substr ($text, 0,(strlen($i)<300?300:$i));
лучше так
<?php include($_SERVER['DOCUMENT_ROOT'].'/top1.html'); ?>
Ну если так ставить вопрос, то ктож вам точно то скажет? 🚬
Сейчас мы насоветуем, а завтра Я поменяет алгоритм. 🙅 времена то темные, верить никому нельзя 🙅
В общем-то по любой логике не должен, одинаковые картинки часто для дизайна страниц используют чтож всех наказывать чтоли? 🤪
У вас не новостной блог? Нет там тем которые могли быть восприняты как новости? Видел описание похожих симптомов на в одной теме на этом форуме когда новостной сайт проиндексировался быстроботом, повисел в поиске какое-то время, а потом выпал до тех пор пока не пришел нормальный бот и не проиндексировал уже навсегда.
Хотя ИМХО в вашем случае с вероятностью процентов 80-90 это просто глюки вебмастера.
WhiteSmartFox добавил 04-02-2011 в 20:51
Вы наверное хотели сказать копипаст? Копирайт это как раз когда пишутся человеком уникальные тексты специально под SEO.
Если физически разные тоже вряд ли будет что-то плохое. Какая в общем-то Яндексу разница он просто неуникальные картинки объединит в одну в поиске картинок.