Махмуд Аббас

Рейтинг
191
Регистрация
02.11.2018
Vladimir SEO #:
посмотрим плагин и попробуем не оборзеть - ведь если дали квоту 200 - то надо и 200 давать )

Так квота, как я выше писал, увеличивается САМА. Так что вообще не вижу проблем, если сам Гугл как бы говорит: чувак, фигачь больше! Хехе. 

Но это не про плагин я, как там с ним, хз, но механика должна быть одна и та же, думаю.

Значит, краткая инструкция, как запилить апишечку на сайт ВП. Не пинайте ногами, возможно всё это сделано криво, и можно проще, но учитывайте, что пилилось всё первый раз и вообще я в этом всём не очень разбираюсь.

- Регистрируем сервисный аккаунта в Гугл Клауд, получаем ключ доступа (файл json) , даём права сервисного аккаунта на серчконсоль, включаем API в гуглклауде.

-  Запиливаем форму на сайт на ВП, делаем ей обработчик (каким образом, их немало - это решать тому, кто будет пилить).

- Качаем с Гитхаба клиент для работы с их апи (php версия клиента https://github.com/googleapis/google-api-php-client).

- Код для пакетных запросов:

require_once '/_google-api-php-client-php70/vendor/autoload.php';

        $client = new \Google_Client();

        $client->setAuthConfig('/_google-api-php-client-php70/blablabla-777c77777777.json');
        $client->addScope('https://www.googleapis.com/auth/indexing');
        $client->setUseBatch(true);

        $service = new \Google_Service_Indexing($client);
        $batch = $service->createBatch();

        foreach ($links as $link) {
            
            $postBody = new \Google_Service_Indexing_UrlNotification();

            $postBody->setUrl($link);
            $postBody->setType('URL_UPDATED');

            $batch->add($service->urlNotifications->publish($postBody));
        }

        $results = $batch->execute();


$client->setAuthConfig() - в этот метод засунуть путь к json файлу, полученному при создании сервисного аккаунта. 
В коде обработки в массиве $links просто список ссылок.

В ответ $batch->execute() присылает массив по количеству ссылок в запросе. Там может быть объекты классов:

1.  \Google\Service\Exception

У этого класса есть методы getCode() и getMessage()  (вообще он скорее всего наследует штатному Exception php, но это я не проверял). Вот хелп Гугла по ошибкам непосредственно indexing api: https://developers.google.com/search/apis/indexing-api/v3/core-errors?hl=ru#api-errors По заверениям Гугла, их прям совсем немного. Но это я тоже не проверял.

2. Если всё ок, то объект \Google\Service\Indexing\PublishUrlNotificationResponse В нём составной частью есть ещё какой-то объект, ща не помню какой, из которого можно достать ответ Гугла на запрос, который он описывает в хелпе по indexing api.


По первым тестам с превышением объявленных лимитов (запихиванием сразу огромного количества ссылок и т.п.) мысли следующие:

- Если в ответ Гугл накидал \Google\Service\Exception , то всё просто: 429 код - превышение лимита, 403 - проблемы с ключом доступа или включением api , 400 - кривые данные.

- Если же в ответ \Google\Service\Indexing\PublishUrlNotificationResponse , то тут хз. Во всех моих запросах он просто повторяет урлу, тип запроса (URL_UPDATED), указывает время запроса. Никаких данных по результатам обработки: принял он его к рассмотрению, не принял, поставил в очередь или что-то подобное - ничего такого нет. Поэтому я забил болт и на сайте в качестве успешного запроса по каждой урле засчитываю просто факт возврата по ней \Google\Service\Indexing\PublishUrlNotificationResponse

- Объявленное ограничение на суточное количество запросов (200) - какая-то хрень. С самого первого дня он сожрал на четверть больше ссылок прежде чем начал возвращать 429 код. Уже со второго дня Гугл сам автоматом начал повышать доступный лимит - хз почему так.

- Объявленное ограничение на разовое количество урл в пакетном запросе (100) - тоже хрень. С самых первых запросов Гугл спокойно жрал по 120-150 ссылок. Сегодня сожрал за раз без малого 500.

- Сброс суточного лимита в полночь по тихоокеанскому времени - скорее всего действительно так. По крайней мере очень на то похоже. Но в связи с бардаком в цифрах лимитов учёт остатков на сайте так нормально и не реализован.

Сорян, что слегка путано и возможно не систематизировано. Короче, думаю, вкратце суть ясна.

Vladimir SEO #:

слушай а какой статус был у страниц ранее ? у меня на двух новых сайтах застрял индекс и ничего не помогает, статус "обнаружена не проиндексирована "

https://prnt.sc/1q9y6dj

https://prnt.sc/1q9y8ms

я и прогоны, и бот , и консоль , текст уник но синон, 75%

Именно " Обнаружена, не проиндексирована". И вот (тьфу-тьфу-тьфу), апишечка помогает. Через недельку, при такой динамике, все страницы должны залететь. Отпишусь, если это случится.
iq2003 #:

Махмуд Аббас а у вас вас тоже были проблемы с индексацией и это реально помогло?

Ребят, форум давно не читал, но проблема с индексацией в гугле реально встала остро, замучался уже :( С полгода назад началось, что индексация новых страниц несколько дней, через форму в вебмастере отправлять без толку, мне кажется эффекта 0.

А сейчас вообще новые страницы больше недели в индекс не могут попасть, а некоторые вообще так и не индексируются. Хотя есть страницы, где все нормально, короче 50/50, хотя всё однотипно. А за последнюю неделю вообще из 20 страниц в индекс попали только 2...

Это только мне так не везет, или у всех проблемы наблюдаются?

Как возобновить нормальную индексацию, может ли Гугл АПИ помочь? Просто никакие ссылки левые не хочу ставить, да и сомневаюсь в их эффективности.

И главный вопрос, будучи далеким от программирования, насколько легко прикрутить Google API? Сайт у меня на Вордпресс. Может есть какая-то пошаговая инструкция или какие-то плагины специальные для этого? Подскажите ребят!!!???

С новым сайтом (июньский) такая беда. Перепробовал всё, от консоли (хотя с лимитом в 10 урлов особо не развернешься) до ссылок, прогонов и вм-бота, но не лез в индекс, хоть ты сдохни. И вот как только прикручена API - сразу начало залетать.



И это явно не совпадение, поскольку я загоняю урлы по определенным параметрам, чтобы отследить, действительно ли они залетают благодаря этому. И таки да.

ale sty #:

Но сами понимаете, как это получилось :)

Сегодня квота вновь увеличилась, теперь 380. Что ж, если так дальше пойдёт, то через пару лет может и до твоих показателей доползу.
 

ale sty #:

А между нами, я и так могу:


Но сами понимаете, как это получилось :)

Научи хотя бы на порядок меньше.  :)

Alex2Fast #:

Так вроде ж расписано у них от чего размер квоты зависит

Непонятно совершенно. Я не отправлял запросы на увеличение, однако она сама увеличилась два раза.

Прикрутил Гугл АПИ к сайту, и на второй день прогнанные страницы (по лимиту) влетели в индекс. Реально, до этого мудохался уже всем чем можно - и ссылками, и вм-ботом, и прогонами. А тут раз - и влетело. И вот у меня возник вопрос знающим людям, т.к. справка Гугла - это то ещё приключение.

Я правильно понимаю, что там плавающий лимит? Потому что у меня сперва было 200, вчера 270, а сегодня уже 350:


И чем чаще ты отправляешь, тем лимит повышается? Или как это вообще понимать?

Vladimir SEO #:
если он пишет значит в коде есть
Да ну конечно. Это же Яндекс - он может достать труп и натянуть кожу на живое.
Тематика займы, регионы. Надоела эта свистопляска с Яндексом, поэтому полтора месяца назад начал крутить. Уже как две недели всё прибило в топ. Как и если забанят, отпишусь :)
Всего: 1910