У меня этих сайтов куча и на всех все доступно, хотя в настройках закрыто.
Но я нашел в этом плюс. Написал скрипт, теперь могу смотреть и собирать статистику одним кликом на множестве своих (да и чужих при необходимости) сайтов)
Доступность моей статы другим меня не сильно беспокоит)---------- Добавлено 16.09.2016 в 11:31 ----------КСТАТИ! Где-то в процентах 5 статистика все таки не показывается.
Во всех случаях счетчики не я создавал, а получал доступ к ним.
Значит есть где-то настройка которая закрывает!
Попробовал поставить гостевой пароль (а вдруг) - не защищает.
Ищу дальше...
Т.е. вы предлагаете разрешить отображение чтобы его запретить?:)
Ведь галочка означает включение запрета.
P.S.: Снял галочку и проверил, все равно данные доступны.
Судя по ответам никто не в курсе как ее сливают)
Но ведь как-то же ее добывают.---------- Добавлено 15.09.2016 в 19:12 ----------
Похоже закрыть никак не получиться.
В настройках все все закрыто, счетчик даже не виден.
Выход один - не использовать LI.
Зато теперь есть методика как собирать стату)
В моем случае нет, так как сайт для экспериментов - буду наблюдать за пациентом)
Может вирусный редирект? )
Я же написал выше, что нашел вирус. Наверное где-то был редирект.
Уверен, что нету, но все же Айболитом погоняю сейчас.
https://rescan.pro - ничего не нашел.
Сейчас еще сами файлы проверю. ---------- Добавлено 02.09.2016 в 14:08 ---------- В общем Айболит нашел немного вирусни!
У меня на этих файлах вордпресс тоже висел сайт с похожей проблемой, но там не было все идеально. Я вирусню почистил, но видать не всю.
Хорошо, хоть не сильно заразная, остальные сайты на хостинге в норме.
Вот так вот.
Линкпад нашел только одну исходящую ссылку (естественная), значит где-то есть редирект.
Я его просто зарегал. Хотя и с историей но санкций не было. Он у меня полтора года без дела лежал.
Когда повесил сайт сначала дали АГС - 1-6 страниц в индексе было.
Теперь вот 0.
У меня сначала в категориях вылазили не анонсы а целые статьи. Сначала думал, что за дублирование контента дали АГС (хотя за него вроде не дают). Закрыл от индекса категории. Оказалось не из-за этого.
Облако меток еще в сайдбаре - но не думаю, что это как поисковый спам расценивается - ПС должны их прекрасно понимать.
$result = sqlite_unbuffered_query($db, 'SELECT * FROM sample WHERE url="'.$u.'"');
Вот спасибо) Нагрузка вернулась к норме) Только осваиваю эту БД
Параметр 'url' у меня всегда уникальный, так что индекс пока не нужен.
Осталась проблема с выводом php
У меня все запаковано в два столбца
url='konfeta/shoko/index.html'
page = '<html><head><><?php echo $banner; ?>' (html страница целиком)
Когда страница физически существовала php работал в ней, сейчас <?php echo $banner; ?> выводится в виде текста в исходном коде.
Не у меня несколько статических сайтов на html.
Просто с ограничением на количество файлов из 100 гб использую 10.
Если есть хостинг с большим диском и без ограничения на файлы с удовольствием бы переехал) Вопрос только в цене.
Про СДН не слышал) Сейчас почитаю.
В htaccess включена возможность отображения php в html. И когда страница допустим page.html реально существовала, то все работало.
Теперь когда скрипт выводит страницу как строку из БД путем echo, то все php вставки отображаются как есть.
Все запросы идут через index.php
<?php
/*даем прямой доступ к физически существующим файлам*/
if($_SERVER['REQUEST_URI'] == '/robots.txt') {include('robots.txt'); die;}
if($_SERVER['REQUEST_URI'] == '/sitemap.xml') {include('sitemap.xml'); die;}
$u = substr($_SERVER['REQUEST_URI'], 1); //определяем запрашиваемй урл
$db = sqlite_open('db.db');
if($u == '') $u = 'index.htm'; // запросили главную
$result = sqlite_unbuffered_query($db, 'SELECT * FROM sample'); //получаем данные из БД
b:
while ($row = sqlite_fetch_array($result)) { //ищем нужный нам урл
if ($row['url'] == $u) {echo $row['page'];goto a;} // когда находим нужный нам урл выводим содержисое страницы
}
$u = 'index.htm'; goto b; //если страница не найдена посылаем на главную (404 потом сделаю)
a:
sqlite_close($db);
?>
На index.php отправляю все запросы в .htaccess
RewriteEngine on
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*)$ index.php [L,QSA]';
P.S.: '' - это ' и '. Не люблю двойные кавычки) ---------- Добавлено 22.08.2016 в 17:33 ---------- И еще очень сильно выросла нагрузка на процессор. В десятки раз. Хотя я использую вроде малоресурсную sqlite_unbuffered_query
Возможно поиск нужных данных надо не через while делать?
У меня ведь поле url в БД уникальное.
Может таблицы в БД разбивать. Но она у меня в БД одна до 200мб.