Я не заморачиваюсь с этими ограничениями (которые вроде только в описании и есть), всю пачку пуляю за один запрос - пусть сам перемалывает как хочет. Вот, кстати, по итогу отписываюсь: в индекс залетело процентов 80 от всех отправленных урлов:
Квота уже до 500 урлов повысилась. Я хз, почему так происходит, но раз Гугл её увеличивает, значит так надо. Я не против :)
Это потому что ты тормоз
Кто настраивал Indexing API по этому мануалу - https://siteclinic.ru/blog/seo-instrumenty/indexing-api/?
Вроде бы делаю все как сказано, но после запуска node index.js выскакивает вот такая фигня (что я делаю не так?)
Это не пробовал. Выше там написал свой вариант, который пока работает.
Так квота, как я выше писал, увеличивается САМА. Так что вообще не вижу проблем, если сам Гугл как бы говорит: чувак, фигачь больше! Хехе.
Но это не про плагин я, как там с ним, хз, но механика должна быть одна и та же, думаю.
Значит, краткая инструкция, как запилить апишечку на сайт ВП. Не пинайте ногами, возможно всё это сделано криво, и можно проще, но учитывайте, что пилилось всё первый раз и вообще я в этом всём не очень разбираюсь.
- Регистрируем сервисный аккаунта в Гугл Клауд, получаем ключ доступа (файл json) , даём права сервисного аккаунта на серчконсоль, включаем API в гуглклауде.- Запиливаем форму на сайт на ВП, делаем ей обработчик (каким образом, их немало - это решать тому, кто будет пилить). - Качаем с Гитхаба клиент для работы с их апи (php версия клиента https://github.com/googleapis/google-api-php-client).
- Код для пакетных запросов:
require_once '/_google-api-php-client-php70/vendor/autoload.php'; $client = new \Google_Client(); $client->setAuthConfig('/_google-api-php-client-php70/blablabla-777c77777777.json'); $client->addScope('https://www.googleapis.com/auth/indexing'); $client->setUseBatch(true); $service = new \Google_Service_Indexing($client); $batch = $service->createBatch(); foreach ($links as $link) { $postBody = new \Google_Service_Indexing_UrlNotification(); $postBody->setUrl($link); $postBody->setType('URL_UPDATED'); $batch->add($service->urlNotifications->publish($postBody)); } $results = $batch->execute();
$client->setAuthConfig() - в этот метод засунуть путь к json файлу, полученному при создании сервисного аккаунта.
В коде обработки в массиве $links просто список ссылок.
В ответ $batch->execute() присылает массив по количеству ссылок в запросе. Там может быть объекты классов:1. \Google\Service\ExceptionУ этого класса есть методы getCode() и getMessage() (вообще он скорее всего наследует штатному Exception php, но это я не проверял). Вот хелп Гугла по ошибкам непосредственно indexing api: https://developers.google.com/search/apis/indexing-api/v3/core-errors?hl=ru#api-errors По заверениям Гугла, их прям совсем немного. Но это я тоже не проверял.
2. Если всё ок, то объект \Google\Service\Indexing\PublishUrlNotificationResponse В нём составной частью есть ещё какой-то объект, ща не помню какой, из которого можно достать ответ Гугла на запрос, который он описывает в хелпе по indexing api.
По первым тестам с превышением объявленных лимитов (запихиванием сразу огромного количества ссылок и т.п.) мысли следующие:- Если в ответ Гугл накидал \Google\Service\Exception , то всё просто: 429 код - превышение лимита, 403 - проблемы с ключом доступа или включением api , 400 - кривые данные.
- Если же в ответ \Google\Service\Indexing\PublishUrlNotificationResponse , то тут хз. Во всех моих запросах он просто повторяет урлу, тип запроса (URL_UPDATED), указывает время запроса. Никаких данных по результатам обработки: принял он его к рассмотрению, не принял, поставил в очередь или что-то подобное - ничего такого нет. Поэтому я забил болт и на сайте в качестве успешного запроса по каждой урле засчитываю просто факт возврата по ней \Google\Service\Indexing\PublishUrlNotificationResponse- Объявленное ограничение на суточное количество запросов (200) - какая-то хрень. С самого первого дня он сожрал на четверть больше ссылок прежде чем начал возвращать 429 код. Уже со второго дня Гугл сам автоматом начал повышать доступный лимит - хз почему так.- Объявленное ограничение на разовое количество урл в пакетном запросе (100) - тоже хрень. С самых первых запросов Гугл спокойно жрал по 120-150 ссылок. Сегодня сожрал за раз без малого 500.- Сброс суточного лимита в полночь по тихоокеанскому времени - скорее всего действительно так. По крайней мере очень на то похоже. Но в связи с бардаком в цифрах лимитов учёт остатков на сайте так нормально и не реализован.
Сорян, что слегка путано и возможно не систематизировано. Короче, думаю, вкратце суть ясна.
слушай а какой статус был у страниц ранее ? у меня на двух новых сайтах застрял индекс и ничего не помогает, статус "обнаружена не проиндексирована "
https://prnt.sc/1q9y6dj
https://prnt.sc/1q9y8ms
я и прогоны, и бот , и консоль , текст уник но синон, 75%
Махмуд Аббас а у вас вас тоже были проблемы с индексацией и это реально помогло?
Ребят, форум давно не читал, но проблема с индексацией в гугле реально встала остро, замучался уже :( С полгода назад началось, что индексация новых страниц несколько дней, через форму в вебмастере отправлять без толку, мне кажется эффекта 0.
А сейчас вообще новые страницы больше недели в индекс не могут попасть, а некоторые вообще так и не индексируются. Хотя есть страницы, где все нормально, короче 50/50, хотя всё однотипно. А за последнюю неделю вообще из 20 страниц в индекс попали только 2...
Это только мне так не везет, или у всех проблемы наблюдаются?
Как возобновить нормальную индексацию, может ли Гугл АПИ помочь? Просто никакие ссылки левые не хочу ставить, да и сомневаюсь в их эффективности.
И главный вопрос, будучи далеким от программирования, насколько легко прикрутить Google API? Сайт у меня на Вордпресс. Может есть какая-то пошаговая инструкция или какие-то плагины специальные для этого? Подскажите ребят!!!???
И это явно не совпадение, поскольку я загоняю урлы по определенным параметрам, чтобы отследить, действительно ли они залетают благодаря этому. И таки да.
Но сами понимаете, как это получилось :)
Сегодня квота вновь увеличилась, теперь 380. Что ж, если так дальше пойдёт, то через пару лет может и до твоих показателей доползу.
А между нами, я и так могу:
Научи хотя бы на порядок меньше. :)