Махмуд Аббас

Рейтинг
193
Регистрация
02.11.2018
Вот если бы рекламные блоки пометили так, что видящий их сразу понял, что это реклама - тогда бы я сказал, что Яндекс молодец. А вот эта косметика, которую только с сотого раза увидеть можно, и то случайно - это всё какая-то незначущая ничего хрень. 
GdeProfit #:

Что можно сделать самому в таком случае?

Крутить себе в плюс, например.
Vladimir #:

Ничего не надо банить, пиши в ЛС

ТС, я бы не рекомендовал тебе этому йогу ничего скидывать в ЛС. Судя по его речам на этом форуме, он тебе такого нарекомендует, что после этого тебе придётся создавать ещё десяток топиков.
Selmak #:
Можете мне краткое содержание последних 100 страниц рассказать? 
Всё плохо. Радует только то, что сегодня не так плохо, как будет завтра.
Vladimir SEO #:
слушай подключил я индекс апи, сколько ты в минуту отправляешь - не более 60 урлов ? а то заходит  всего 3-4 урла, а отправил вчера 100+ 50 + 25

Я не заморачиваюсь с этими ограничениями (которые вроде только в описании и есть), всю пачку пуляю за один запрос - пусть сам перемалывает как хочет. Вот, кстати, по итогу отписываюсь: в индекс залетело процентов 80 от всех отправленных урлов:


Квота уже до 500 урлов повысилась. Я хз, почему так происходит, но раз Гугл её увеличивает, значит так надо. Я не против :)

Provayder #:

Это потому что ты тормоз

Судя по тому, что ты ответил спустя пять лет после вопроса, тормоз не только он.
TpaBkuH #:

Кто настраивал  Indexing API по этому мануалу - https://siteclinic.ru/blog/seo-instrumenty/indexing-api/?

Вроде бы делаю все как сказано, но после запуска node index.js выскакивает вот такая фигня (что я делаю не так?)


Это не пробовал. Выше там написал свой вариант, который пока работает.

Vladimir SEO #:
посмотрим плагин и попробуем не оборзеть - ведь если дали квоту 200 - то надо и 200 давать )

Так квота, как я выше писал, увеличивается САМА. Так что вообще не вижу проблем, если сам Гугл как бы говорит: чувак, фигачь больше! Хехе. 

Но это не про плагин я, как там с ним, хз, но механика должна быть одна и та же, думаю.

Значит, краткая инструкция, как запилить апишечку на сайт ВП. Не пинайте ногами, возможно всё это сделано криво, и можно проще, но учитывайте, что пилилось всё первый раз и вообще я в этом всём не очень разбираюсь.

- Регистрируем сервисный аккаунта в Гугл Клауд, получаем ключ доступа (файл json) , даём права сервисного аккаунта на серчконсоль, включаем API в гуглклауде.

-  Запиливаем форму на сайт на ВП, делаем ей обработчик (каким образом, их немало - это решать тому, кто будет пилить).

- Качаем с Гитхаба клиент для работы с их апи (php версия клиента https://github.com/googleapis/google-api-php-client).

- Код для пакетных запросов:

require_once '/_google-api-php-client-php70/vendor/autoload.php';

        $client = new \Google_Client();

        $client->setAuthConfig('/_google-api-php-client-php70/blablabla-777c77777777.json');
        $client->addScope('https://www.googleapis.com/auth/indexing');
        $client->setUseBatch(true);

        $service = new \Google_Service_Indexing($client);
        $batch = $service->createBatch();

        foreach ($links as $link) {
            
            $postBody = new \Google_Service_Indexing_UrlNotification();

            $postBody->setUrl($link);
            $postBody->setType('URL_UPDATED');

            $batch->add($service->urlNotifications->publish($postBody));
        }

        $results = $batch->execute();


$client->setAuthConfig() - в этот метод засунуть путь к json файлу, полученному при создании сервисного аккаунта. 
В коде обработки в массиве $links просто список ссылок.

В ответ $batch->execute() присылает массив по количеству ссылок в запросе. Там может быть объекты классов:

1.  \Google\Service\Exception

У этого класса есть методы getCode() и getMessage()  (вообще он скорее всего наследует штатному Exception php, но это я не проверял). Вот хелп Гугла по ошибкам непосредственно indexing api: https://developers.google.com/search/apis/indexing-api/v3/core-errors?hl=ru#api-errors По заверениям Гугла, их прям совсем немного. Но это я тоже не проверял.

2. Если всё ок, то объект \Google\Service\Indexing\PublishUrlNotificationResponse В нём составной частью есть ещё какой-то объект, ща не помню какой, из которого можно достать ответ Гугла на запрос, который он описывает в хелпе по indexing api.


По первым тестам с превышением объявленных лимитов (запихиванием сразу огромного количества ссылок и т.п.) мысли следующие:

- Если в ответ Гугл накидал \Google\Service\Exception , то всё просто: 429 код - превышение лимита, 403 - проблемы с ключом доступа или включением api , 400 - кривые данные.

- Если же в ответ \Google\Service\Indexing\PublishUrlNotificationResponse , то тут хз. Во всех моих запросах он просто повторяет урлу, тип запроса (URL_UPDATED), указывает время запроса. Никаких данных по результатам обработки: принял он его к рассмотрению, не принял, поставил в очередь или что-то подобное - ничего такого нет. Поэтому я забил болт и на сайте в качестве успешного запроса по каждой урле засчитываю просто факт возврата по ней \Google\Service\Indexing\PublishUrlNotificationResponse

- Объявленное ограничение на суточное количество запросов (200) - какая-то хрень. С самого первого дня он сожрал на четверть больше ссылок прежде чем начал возвращать 429 код. Уже со второго дня Гугл сам автоматом начал повышать доступный лимит - хз почему так.

- Объявленное ограничение на разовое количество урл в пакетном запросе (100) - тоже хрень. С самых первых запросов Гугл спокойно жрал по 120-150 ссылок. Сегодня сожрал за раз без малого 500.

- Сброс суточного лимита в полночь по тихоокеанскому времени - скорее всего действительно так. По крайней мере очень на то похоже. Но в связи с бардаком в цифрах лимитов учёт остатков на сайте так нормально и не реализован.

Сорян, что слегка путано и возможно не систематизировано. Короче, думаю, вкратце суть ясна.

Vladimir SEO #:

слушай а какой статус был у страниц ранее ? у меня на двух новых сайтах застрял индекс и ничего не помогает, статус "обнаружена не проиндексирована "

https://prnt.sc/1q9y6dj

https://prnt.sc/1q9y8ms

я и прогоны, и бот , и консоль , текст уник но синон, 75%

Именно " Обнаружена, не проиндексирована". И вот (тьфу-тьфу-тьфу), апишечка помогает. Через недельку, при такой динамике, все страницы должны залететь. Отпишусь, если это случится.
Всего: 1917