Каждое перелистывание - это обращение к index.php с GET-параметрами. То есть каждый хит любого юзера - include config.php; ini_set('session.save_path', $path); session_start();
Правильно ли я понимаю, что у реального юзера сажается кука, и при session_start(); выбирается существующий файл сессии вместо создания нового? А у роботов просто куки запрещены, поэтому у робота - каждый хит = новый файл сессии?
Да, сажается кука с именем PHPSESSID по умолчанию. Но у роботов ПС куки не запрещены, они ходят реальными браузерами.
Кроме session_start(), в целях защиты ID сессии от перехвата, может вызываться session_regenerate_id , которая гененерирует новый ID сессии (создает новый файл сессии). При этом ID старой сессии (файл сессии на диске сервера) может не уничтожаться немедленно, а храниться некоторое время (там по ссылке есть пример реализации и объяснение почему так делается). При некорректной реализации, ПС может нагенерить тонну сессий.
Что хочу, хочу чтобы у реального юзера не запускался процесс ini_set('session.save_path', $path); , но если перед session_start(); в index.php или, что равно, в config.php, делать if ($_SESSION['test']) типа сессия есть, то результат - фиг. То есть файл сессии с $_SESSION['test'] он есть, но до session_start(); не открыт что ли....
Как быть?
Пока не запустите session_start(); , массив $_SESSION[] не будет заполнен. Его заполняет именно session_start(); (читает файл сессии на сервере и иниализирует из него этот массив)
Вы просто используете сессии не по назначению. Сессия должна стартоваться только для авторизованных(залогиненных) посетителей - для этого при авторизации посетителю садится кука (например, Login_Name=Вася), и если браузер присылает эту куку - значит посетитель уже ранее логинился на сайт, и ему стартуется сессия. Если прислан корректный PHPSESSID , то из сессии (файла на сервере с именем из PHPSESSID) поднимаются данные идентификации посетителя, что он навыбирал себе в корзину, и тп.
Вы же храните в сессии данные (выбранные товары в корзине) для любых неавторизованных посетителей, а это надо делать в куках или localStorage. Тогда не придётся стартовать сессию ботам и всяким случайным посетителям.
С минимальными переделками сайта - можно садить посетителю специальную куку типа basket=1, если он выбрал что-либо в корзину. Тогда на сервере проверяете isset($_COOKIE['basket']), и если она установлена - вызываете session_start(). У ботов ПС этой куки не будет, ибо они ничего в корзину не выбирают.
Проверил код, там вроде все нормально, чужих изменений нет.
Что значит в конце - referer: https://chushoi-sait.ru/
Проинициируйте переменную $query_str в коде плагина:
if (!isset($query_str)) $query_str = '';
и ошибка исчезнет.
if ( !defined( 'ABSPATH' ) ) exit;
Внешние ссылки передают 4 фактора:
Также есть мнение, что чем старее ссылка, тем больше она передаёт статвеса и "анкорного".
1. Страница с кодом ответа 404 Not Found. ПС не индексируют страницы с кодом ответа 404 Not found (Google, Яндекс) и удаляют их Url из индекса. Поэтому внешним ссылкам некуда передавать статвес и акнорное ранжирование. Все бэклинки будут фактически потеряны.
2. Redirect с кодом ответа 301 Moved Permanently. Переклеивает (передаёт) статвес и "анкорное" внешних ссылок на указываемую страницу (морду или внутряк).
3. Страница с кодом ответа 200 OK. Получает статвес и "анкорное" от внешних ссылок. Поскольку страница индексируется, внутренние ссылки с неё будут работать и передавать и статвес, и анкорное ранжирование (но уже по своим анкорам, а не от внешних ссылок).
Поэтому обе ваши мысли - правильные, а что лучше - решите сами. Только не 404 страница!
AI обучается на прошлом опыте, поэтому он не способен создавать ничего нового. В отличии от человека, который способен созидать.
Потому AI годен для автоматизации текущих рутинных процессов. Которые разработал человек, а AI только обучился на его опыте.
Всем здравствуйте. Подскажите, как быстро удалить все страницы из индекса Яндекса.
Если надо быстро удалить из индекса - то только редиректом.
это DDOS от Янда?
это всего лишь одно обращение поискового робота в секунду к сайту... 24x60x60 = ???
Боты наваливаются волнами по 20-30 минут.
sdubc6754b :Сайт запущен в конце лета 2023 года.
...
В ТОПе участвует только главная и только по одному ключу почему-то, только страницы услуг ни в какую даже в ТОП-100 не идут. Уже всю голову сломали, не понимаю в чем проблема
До запуска вашего сайта, по вашим запросам у Яндекса в выдаче было 10000 сайтов. Вы запустили свой сайт. Скажите, а почему Яндекс должен подвинуть 10000 старых сайтов и начать показывать ваш?
Если у вас регионозависимые запросы - надо присвоить регион сайту, там конкуренция должна быть меньше.
Если в выдаче только морда - скорее всего, внутренним страницам не хватает статического веса.
Можно ли делать одинаковыми Title и H1?
Вам надо разобраться, как тексты из <title> и <h1> влияют на ранжирование, из чего формируется сниппет в выдаче в зависимости от запроса. После этого ваш вопрос станет неактуальным.
Осталось понять что такое "качество контента" и как его определяют ПС. И перестать тупо переписывать тексты - их качество от этого не возрастает.
ждем DDOS подобного обхода роботами Гугла сайтов ....
За 15 лет ни разу не наблюдал DDOS от ботов Гугля.
От Яндекса - да, по 70 тыс страниц в сутки сканирует, по нескольку запросов в секунду. Пришлось оптимизмировать движки сайтов.