делать бэкап ≠ скачивать бэкап :)
Хостинг — не Хостгатор случаем? :) Его вчера/позавчера обсуждали с подобными проблемами.
Известный мне список яндексовских сетей:
77.88.0.0/18
87.250.224.0/19
93.158.128.0/18
95.108.128.0/17
178.154.128.0/17
213.180.192.0/19
При отправке тоже можете проверять.
$filename='имя_загруженного_файла'; if (preg_match("/\.(exe|com|cmd|bat)$/",$filename) { echo "Запрещённое расширение"; } else { ... отправка письма ... }
Если нужно именно статический файл index.html, в файле 'wp-includes/canonical.php' раскомментируйте строку
// $original['path'] = preg_replace('|/index\.php$|', '/', $original['path']);
1px в ширину? т.е. это горизонтальный фон?
Чем меньше ширина, тем больше нагрузка для браузера. Тут просто нужно выбрать компромисс между размером файла и шириной картинки.
Я бы меньше 10 px делать не стал.
Чтобы лечить, сначала нужно установить причины )
Мне кажется, излечить сложно, а причины тут сродни тем, почему иногда на каком-нибудь сайте не подгружается какая-нибудь картиночка или стили.
Опыта работы с этой включенной опцией нет. Самый большой форум, который я помогал поддерживать — 5-6 тысяч уников, но ни кто не ныл по поводу непрочитанных тем :)
Попробуйте включить сначала второй вариант. Я не думаю, что будет прям такая колоссальная нагрузка.
В любом случае, можно всегда вернуться к кукам )
Бывает, если кука слетает, прочитанное становится непрочитанным.
Там где-то в настройках есть опция "хранить информацию о прочитанных сообщениях в базе данных". Вот её если включить, по-идее, проблема должна исчезнуть.
На javascript можно такого понаворотить, что даже если вы напишете на php полноценный браузер, понимающий javascript и DOM, он всё равно вас не спасёт. Если javascript будет показывать порты после какого-то "человеческого" события, например, когда пользователь шелохнёт мышкой поверх странички :)
Передаёте покупателю архив с файлами и дамп базы данных (если используется).
В чём проблема? :)
Кстати да, тут совсем недавно у кого-то была такая же фигня с robots.txt.
Как оказалось, у хостера было что-то криво настроено.
Я так подозреваю, что хостер сделал алиасом robots.txt для всех сайтов :) Ну там, может, с целью глобально забанить дотошных роботов.