egranty

Рейтинг
26
Регистрация
29.09.2020
Kaavain :

Каждое перелистывание - это обращение к index.php с GET-параметрами. То есть каждый хит любого юзера -  include config.php;  ini_set('session.save_path', $path);  session_start();

Правильно ли я понимаю, что у реального юзера сажается кука, и при  session_start(); выбирается существующий файл сессии вместо создания нового? А у роботов просто куки запрещены, поэтому у робота - каждый хит = новый файл сессии?

Да, сажается кука с именем PHPSESSID по умолчанию. Но у роботов ПС куки не запрещены, они ходят реальными браузерами.

Кроме  session_start(), в целях защиты ID сессии от перехвата, может вызываться  session_regenerate_id , которая гененерирует новый ID сессии (создает новый файл сессии).  При этом ID старой сессии (файл сессии на диске сервера) может не уничтожаться немедленно, а храниться некоторое время (там по ссылке есть пример реализации и объяснение почему так делается). При некорректной реализации, ПС может нагенерить тонну сессий.

Kaavain :

Что хочу, хочу чтобы у реального юзера не запускался процесс  ini_set('session.save_path', $path); , но если перед  session_start();  в  index.php или, что равно, в  config.php, делать if ($_SESSION['test']) типа сессия есть, то результат - фиг. То есть файл сессии с $_SESSION['test'] он есть, но до  session_start(); не открыт что ли.... 

Как быть?

Пока не запустите  session_start(); , массив $_SESSION[] не будет заполнен. Его заполняет именно  session_start();  (читает файл сессии на сервере и иниализирует из него этот массив)

Вы просто используете сессии не по назначению. Сессия должна стартоваться только для авторизованных(залогиненных) посетителей - для этого при авторизации посетителю садится кука (например, Login_Name=Вася), и если браузер присылает эту куку - значит посетитель уже ранее логинился на сайт, и ему стартуется сессия. Если прислан корректный PHPSESSID , то из сессии (файла на сервере с именем из  PHPSESSID) поднимаются данные идентификации посетителя, что он навыбирал себе в корзину, и тп.

Вы же храните в сессии данные (выбранные товары в корзине) для любых неавторизованных посетителей, а это надо делать в куках или localStorage. Тогда не придётся стартовать сессию ботам и всяким случайным посетителям.

С минимальными переделками сайта - можно садить посетителю специальную куку типа basket=1, если он выбрал что-либо в корзину. Тогда на сервере проверяете isset($_COOKIE['basket']), и если она установлена - вызываете session_start(). У ботов ПС этой куки не будет, ибо они ничего в корзину не выбирают.

Dmitriy_2014 :

Проверил код, там вроде все нормально, чужих изменений нет.

Что значит в конце - referer: https://chushoi-sait.ru/

Проинициируйте переменную $query_str  в коде плагина:

if (!isset($query_str)) $query_str = '';

и ошибка исчезнет.

referer: https://chushoi-sait.ru/ значит, что это либо переход с этого сайта, либо рефспам. Также, возможно это сканирование папок и файлов в поисках уязвимостей, поскольку ваш плагин запускается с непроинициированными переменными. Ваш скрипт plugin.php не должен запускаться прямым вызовом (не из index.php). Для этого в начале плагина WP пишут что то типа: 
if ( !defined( 'ABSPATH' ) ) exit;
enhill :
 В результате появились беклинки, указывающие на несуществующие категории товаров. Эти беклинки очень жирные. С сайтов конкурентов (других интернет-магазинов), а также нескольких сайтов с икс 40000.

Очень хочется приклеить эти ссылки к сайту. 

Пока у меня 2 мысли:

1) Сделать 301 редирект на главную, но мне непонятны последствия

2) Создать информационную страницу (статью в блог). Например, ссылка была на категорию гантелей, а редирект на статью "Все, что вы не знали о гантелях.".

Внешние ссылки передают 4 фактора:

  1. Статический вес
  2. Анкорное ранжирование
  3. Траст
  4. Цифирки для "пузомерок", например, в расчёте ТИЦ Яндекс учитывал ссылки на страницы 404 и даже на поддомены.

Также есть мнение, что чем старее ссылка, тем больше она передаёт статвеса и "анкорного".

 

1. Страница с кодом ответа 404 Not Found. ПС не индексируют страницы с кодом ответа 404 Not found (Google, Яндекс) и удаляют их Url из индекса. Поэтому внешним ссылкам некуда передавать статвес и акнорное ранжирование. Все бэклинки будут фактически потеряны.

2. Redirect с кодом ответа 301 Moved Permanently. Переклеивает (передаёт) статвес и "анкорное" внешних ссылок на указываемую страницу (морду или внутряк).

3. Страница с кодом ответа 200 OK. Получает статвес и "анкорное" от внешних ссылок. Поскольку страница индексируется, внутренние ссылки с неё будут работать и передавать и статвес, и анкорное ранжирование (но уже по своим анкорам, а не от внешних ссылок).

Поэтому обе ваши мысли - правильные, а что лучше - решите сами. Только не 404 страница!

Vladimirus #:
А кого вообще гпт заменил? Уже 2-й год идут ликования о наступившей халяве, а на кворке как за 500 рублей статьи писали так и пишут.  Перефразирую одного человека, скажу так: - где замены?

AI обучается на прошлом опыте, поэтому он не способен создавать ничего нового. В отличии от человека, который способен созидать.

Потому AI годен для автоматизации текущих рутинных процессов. Которые разработал человек, а AI только обучился на его опыте.

Adkin :

Всем здравствуйте. Подскажите, как быстро удалить все страницы из индекса Яндекса. 

Если надо быстро удалить из индекса - то только редиректом.

Иван Комаров #:

это DDOS от Янда?

это всего лишь одно обращение поискового робота в секунду к сайту... 24x60x60  = ???

Боты наваливаются волнами по 20-30 минут. 

sdubc6754b :
Сайт запущен в конце лета 2023 года.

...


В ТОПе участвует только главная и только по одному ключу почему-то, только страницы услуг ни в какую даже в ТОП-100 не идут. 

Уже всю голову сломали,  не понимаю в чем проблема

До запуска вашего сайта, по вашим запросам у Яндекса в выдаче было 10000 сайтов. Вы запустили свой сайт. Скажите, а почему Яндекс должен подвинуть 10000 старых сайтов и начать показывать ваш?

Если у вас регионозависимые запросы - надо присвоить регион сайту, там конкуренция должна быть меньше.

Если в выдаче только морда - скорее всего, внутренним страницам не хватает статического веса.

dekavaj875 :

Можно ли делать одинаковыми Title и H1? 

Вам надо разобраться, как тексты из <title> и <h1> влияют на ранжирование, из чего формируется сниппет в выдаче в зависимости от запроса. После этого ваш вопрос станет неактуальным.

refroz #:
Мое мнение, что гугл типа чекает типа "качество" контента (как может) у сайтов, у которых наблюдается рост страниц в индексе.

Осталось понять что такое "качество контента" и как его определяют ПС. И перестать тупо переписывать тексты - их качество от этого не возрастает.

Иван Комаров :

ждем DDOS подобного обхода роботами Гугла сайтов ....

За 15 лет ни разу не наблюдал DDOS от ботов  Гугля.

От Яндекса - да, по 70 тыс страниц в сутки сканирует, по нескольку запросов в секунду. Пришлось оптимизмировать движки сайтов.

12 3
Всего: 25