Что можно сделать самому в таком случае?
Ничего не надо банить, пиши в ЛС
Я не заморачиваюсь с этими ограничениями (которые вроде только в описании и есть), всю пачку пуляю за один запрос - пусть сам перемалывает как хочет. Вот, кстати, по итогу отписываюсь: в индекс залетело процентов 80 от всех отправленных урлов:
Квота уже до 500 урлов повысилась. Я хз, почему так происходит, но раз Гугл её увеличивает, значит так надо. Я не против :)
Это потому что ты тормоз
Кто настраивал Indexing API по этому мануалу - https://siteclinic.ru/blog/seo-instrumenty/indexing-api/?
Вроде бы делаю все как сказано, но после запуска node index.js выскакивает вот такая фигня (что я делаю не так?)
Это не пробовал. Выше там написал свой вариант, который пока работает.
Так квота, как я выше писал, увеличивается САМА. Так что вообще не вижу проблем, если сам Гугл как бы говорит: чувак, фигачь больше! Хехе.
Но это не про плагин я, как там с ним, хз, но механика должна быть одна и та же, думаю.
Значит, краткая инструкция, как запилить апишечку на сайт ВП. Не пинайте ногами, возможно всё это сделано криво, и можно проще, но учитывайте, что пилилось всё первый раз и вообще я в этом всём не очень разбираюсь.
- Регистрируем сервисный аккаунта в Гугл Клауд, получаем ключ доступа (файл json) , даём права сервисного аккаунта на серчконсоль, включаем API в гуглклауде.- Запиливаем форму на сайт на ВП, делаем ей обработчик (каким образом, их немало - это решать тому, кто будет пилить). - Качаем с Гитхаба клиент для работы с их апи (php версия клиента https://github.com/googleapis/google-api-php-client).
- Код для пакетных запросов:
require_once '/_google-api-php-client-php70/vendor/autoload.php'; $client = new \Google_Client(); $client->setAuthConfig('/_google-api-php-client-php70/blablabla-777c77777777.json'); $client->addScope('https://www.googleapis.com/auth/indexing'); $client->setUseBatch(true); $service = new \Google_Service_Indexing($client); $batch = $service->createBatch(); foreach ($links as $link) { $postBody = new \Google_Service_Indexing_UrlNotification(); $postBody->setUrl($link); $postBody->setType('URL_UPDATED'); $batch->add($service->urlNotifications->publish($postBody)); } $results = $batch->execute();
$client->setAuthConfig() - в этот метод засунуть путь к json файлу, полученному при создании сервисного аккаунта.
В коде обработки в массиве $links просто список ссылок.
В ответ $batch->execute() присылает массив по количеству ссылок в запросе. Там может быть объекты классов:1. \Google\Service\ExceptionУ этого класса есть методы getCode() и getMessage() (вообще он скорее всего наследует штатному Exception php, но это я не проверял). Вот хелп Гугла по ошибкам непосредственно indexing api: https://developers.google.com/search/apis/indexing-api/v3/core-errors?hl=ru#api-errors По заверениям Гугла, их прям совсем немного. Но это я тоже не проверял.
2. Если всё ок, то объект \Google\Service\Indexing\PublishUrlNotificationResponse В нём составной частью есть ещё какой-то объект, ща не помню какой, из которого можно достать ответ Гугла на запрос, который он описывает в хелпе по indexing api.
По первым тестам с превышением объявленных лимитов (запихиванием сразу огромного количества ссылок и т.п.) мысли следующие:- Если в ответ Гугл накидал \Google\Service\Exception , то всё просто: 429 код - превышение лимита, 403 - проблемы с ключом доступа или включением api , 400 - кривые данные.
- Если же в ответ \Google\Service\Indexing\PublishUrlNotificationResponse , то тут хз. Во всех моих запросах он просто повторяет урлу, тип запроса (URL_UPDATED), указывает время запроса. Никаких данных по результатам обработки: принял он его к рассмотрению, не принял, поставил в очередь или что-то подобное - ничего такого нет. Поэтому я забил болт и на сайте в качестве успешного запроса по каждой урле засчитываю просто факт возврата по ней \Google\Service\Indexing\PublishUrlNotificationResponse- Объявленное ограничение на суточное количество запросов (200) - какая-то хрень. С самого первого дня он сожрал на четверть больше ссылок прежде чем начал возвращать 429 код. Уже со второго дня Гугл сам автоматом начал повышать доступный лимит - хз почему так.- Объявленное ограничение на разовое количество урл в пакетном запросе (100) - тоже хрень. С самых первых запросов Гугл спокойно жрал по 120-150 ссылок. Сегодня сожрал за раз без малого 500.- Сброс суточного лимита в полночь по тихоокеанскому времени - скорее всего действительно так. По крайней мере очень на то похоже. Но в связи с бардаком в цифрах лимитов учёт остатков на сайте так нормально и не реализован.
Сорян, что слегка путано и возможно не систематизировано. Короче, думаю, вкратце суть ясна.
слушай а какой статус был у страниц ранее ? у меня на двух новых сайтах застрял индекс и ничего не помогает, статус "обнаружена не проиндексирована "
https://prnt.sc/1q9y6dj
https://prnt.sc/1q9y8ms
я и прогоны, и бот , и консоль , текст уник но синон, 75%