Так квота, как я выше писал, увеличивается САМА. Так что вообще не вижу проблем, если сам Гугл как бы говорит: чувак, фигачь больше! Хехе.
Но это не про плагин я, как там с ним, хз, но механика должна быть одна и та же, думаю.
Значит, краткая инструкция, как запилить апишечку на сайт ВП. Не пинайте ногами, возможно всё это сделано криво, и можно проще, но учитывайте, что пилилось всё первый раз и вообще я в этом всём не очень разбираюсь.
- Регистрируем сервисный аккаунта в Гугл Клауд, получаем ключ доступа (файл json) , даём права сервисного аккаунта на серчконсоль, включаем API в гуглклауде.- Запиливаем форму на сайт на ВП, делаем ей обработчик (каким образом, их немало - это решать тому, кто будет пилить). - Качаем с Гитхаба клиент для работы с их апи (php версия клиента https://github.com/googleapis/google-api-php-client).
- Код для пакетных запросов:
require_once '/_google-api-php-client-php70/vendor/autoload.php'; $client = new \Google_Client(); $client->setAuthConfig('/_google-api-php-client-php70/blablabla-777c77777777.json'); $client->addScope('https://www.googleapis.com/auth/indexing'); $client->setUseBatch(true); $service = new \Google_Service_Indexing($client); $batch = $service->createBatch(); foreach ($links as $link) { $postBody = new \Google_Service_Indexing_UrlNotification(); $postBody->setUrl($link); $postBody->setType('URL_UPDATED'); $batch->add($service->urlNotifications->publish($postBody)); } $results = $batch->execute();
$client->setAuthConfig() - в этот метод засунуть путь к json файлу, полученному при создании сервисного аккаунта.
В коде обработки в массиве $links просто список ссылок.
В ответ $batch->execute() присылает массив по количеству ссылок в запросе. Там может быть объекты классов:1. \Google\Service\ExceptionУ этого класса есть методы getCode() и getMessage() (вообще он скорее всего наследует штатному Exception php, но это я не проверял). Вот хелп Гугла по ошибкам непосредственно indexing api: https://developers.google.com/search/apis/indexing-api/v3/core-errors?hl=ru#api-errors По заверениям Гугла, их прям совсем немного. Но это я тоже не проверял.
2. Если всё ок, то объект \Google\Service\Indexing\PublishUrlNotificationResponse В нём составной частью есть ещё какой-то объект, ща не помню какой, из которого можно достать ответ Гугла на запрос, который он описывает в хелпе по indexing api.
По первым тестам с превышением объявленных лимитов (запихиванием сразу огромного количества ссылок и т.п.) мысли следующие:- Если в ответ Гугл накидал \Google\Service\Exception , то всё просто: 429 код - превышение лимита, 403 - проблемы с ключом доступа или включением api , 400 - кривые данные.
- Если же в ответ \Google\Service\Indexing\PublishUrlNotificationResponse , то тут хз. Во всех моих запросах он просто повторяет урлу, тип запроса (URL_UPDATED), указывает время запроса. Никаких данных по результатам обработки: принял он его к рассмотрению, не принял, поставил в очередь или что-то подобное - ничего такого нет. Поэтому я забил болт и на сайте в качестве успешного запроса по каждой урле засчитываю просто факт возврата по ней \Google\Service\Indexing\PublishUrlNotificationResponse- Объявленное ограничение на суточное количество запросов (200) - какая-то хрень. С самого первого дня он сожрал на четверть больше ссылок прежде чем начал возвращать 429 код. Уже со второго дня Гугл сам автоматом начал повышать доступный лимит - хз почему так.- Объявленное ограничение на разовое количество урл в пакетном запросе (100) - тоже хрень. С самых первых запросов Гугл спокойно жрал по 120-150 ссылок. Сегодня сожрал за раз без малого 500.- Сброс суточного лимита в полночь по тихоокеанскому времени - скорее всего действительно так. По крайней мере очень на то похоже. Но в связи с бардаком в цифрах лимитов учёт остатков на сайте так нормально и не реализован.
Сорян, что слегка путано и возможно не систематизировано. Короче, думаю, вкратце суть ясна.
слушай а какой статус был у страниц ранее ? у меня на двух новых сайтах застрял индекс и ничего не помогает, статус "обнаружена не проиндексирована "
https://prnt.sc/1q9y6dj
https://prnt.sc/1q9y8ms
я и прогоны, и бот , и консоль , текст уник но синон, 75%
Махмуд Аббас а у вас вас тоже были проблемы с индексацией и это реально помогло?
Ребят, форум давно не читал, но проблема с индексацией в гугле реально встала остро, замучался уже :( С полгода назад началось, что индексация новых страниц несколько дней, через форму в вебмастере отправлять без толку, мне кажется эффекта 0.
А сейчас вообще новые страницы больше недели в индекс не могут попасть, а некоторые вообще так и не индексируются. Хотя есть страницы, где все нормально, короче 50/50, хотя всё однотипно. А за последнюю неделю вообще из 20 страниц в индекс попали только 2...
Это только мне так не везет, или у всех проблемы наблюдаются?
Как возобновить нормальную индексацию, может ли Гугл АПИ помочь? Просто никакие ссылки левые не хочу ставить, да и сомневаюсь в их эффективности.
И главный вопрос, будучи далеким от программирования, насколько легко прикрутить Google API? Сайт у меня на Вордпресс. Может есть какая-то пошаговая инструкция или какие-то плагины специальные для этого? Подскажите ребят!!!???
И это явно не совпадение, поскольку я загоняю урлы по определенным параметрам, чтобы отследить, действительно ли они залетают благодаря этому. И таки да.
Но сами понимаете, как это получилось :)
Сегодня квота вновь увеличилась, теперь 380. Что ж, если так дальше пойдёт, то через пару лет может и до твоих показателей доползу.
А между нами, я и так могу:
Научи хотя бы на порядок меньше. :)
Так вроде ж расписано у них от чего размер квоты зависит
Прикрутил Гугл АПИ к сайту, и на второй день прогнанные страницы (по лимиту) влетели в индекс. Реально, до этого мудохался уже всем чем можно - и ссылками, и вм-ботом, и прогонами. А тут раз - и влетело. И вот у меня возник вопрос знающим людям, т.к. справка Гугла - это то ещё приключение.
Я правильно понимаю, что там плавающий лимит? Потому что у меня сперва было 200, вчера 270, а сегодня уже 350:
И чем чаще ты отправляешь, тем лимит повышается? Или как это вообще понимать?