Сильное обновление Гугл. Часть 5

Vladimir SEO
На сайте с 19.10.2011
Offline
1929
#7271
Махмуд Аббас #:
Именно " Обнаружена, не проиндексирована". И вот (тьфу-тьфу-тьфу), апишечка помогает. Через недельку, при такой динамике, все страницы должны залететь. Отпишусь, если это случится.
бимба!!! Благодарочка , пошел делать !!
Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
Brat_Sergij
На сайте с 26.11.2015
Offline
363
#7272
Махмуд Аббас #:
Именно " Обнаружена, не проиндексирована". И вот (тьфу-тьфу-тьфу), апишечка помогает. Через недельку, при такой динамике, все страницы должны залететь. Отпишусь, если это случится.

Присоединяюсь к вопросу как прикрутить сие чудо к Вордпресс.

G6
На сайте с 12.07.2007
Offline
184
#7273
Brat_Sergij #:
Присоединяюсь к вопросу как прикрутить сие чудо к Вордпресс.

Плагин поставить и настроить https://wordpress.org/plugins/fast-indexing-api/

Instant Indexing for Google
Instant Indexing for Google
  • Rank Math
  • wordpress.org
Note : Google recommends that you use the Indexing API ONLY for Job Posting and Live Streaming websites. However, it works on any type of website and many of our users have seen great results already. Please proceed with caution. Whether you are a novice blogger or a seasoned SEO – you know the importance of getting into the Google index. It is...
Очистите трафик сайта от ботов и накруток ПФ https://antibot.worldwebinfo.ru
K4
На сайте с 29.01.2020
Offline
73
#7274
Vladimir SEO #:
я и прогоны, и бот , и консоль , текст уник но синон, 75%

Все перепробовал, а про sitemap забыл, да?


Brat_Sergij
На сайте с 26.11.2015
Offline
363
#7275
garry69 #:

Плагин поставить и настроить https://wordpress.org/plugins/fast-indexing-api/

Спасибо!

Brat_Sergij
На сайте с 26.11.2015
Offline
363
#7276

" the Google Indexing API officially supports pages containing Job Posting and Livestream structured data – it is officially recommended to use only on such websites.  "

Ох, как бы к проблемной индексации вообще бан от Гугла не получить... Они не любят нарушения своих правил.

ПГ
На сайте с 28.05.2020
Offline
13
#7277
У меня какая-то хрень началась с тайтлами на кулинарном сайте: где-то с 3-4 дня назад, гугл начал себе сам формулировать их, ему тупо пофиг, что они у меня заполнены. То берет h1, то где-то с середины тайтла (причем со строчной буквы), где-то часть тайтла - h1. Главные словосочетания в 50% он забрал из тайтла. И да из индекса почему-то в консоли гугла пропало 70% страниц с разметкой пошаговые рецепты, фрагменты отзывов.
ПГ
На сайте с 28.05.2020
Offline
13
#7278
С каждым годом индексация все хуже и хуже становится. Там где есть сайт в гугл новостях - еще ок, но и то лишь что туда попадает, а повторной индексации страницы можно и пол года ждать. Создается впечатление, что им тупо не хватит ресурсов. лучше бы удалили 99% говносайтов на блогере, блогпост, вордпресс (я о бесплатных) тому подобных платформах, что засоряют выдачу и никому нафиг не надо.
МА
На сайте с 02.11.2018
Offline
181
#7279

Значит, краткая инструкция, как запилить апишечку на сайт ВП. Не пинайте ногами, возможно всё это сделано криво, и можно проще, но учитывайте, что пилилось всё первый раз и вообще я в этом всём не очень разбираюсь.

- Регистрируем сервисный аккаунта в Гугл Клауд, получаем ключ доступа (файл json) , даём права сервисного аккаунта на серчконсоль, включаем API в гуглклауде.

-  Запиливаем форму на сайт на ВП, делаем ей обработчик (каким образом, их немало - это решать тому, кто будет пилить).

- Качаем с Гитхаба клиент для работы с их апи (php версия клиента https://github.com/googleapis/google-api-php-client).

- Код для пакетных запросов:

require_once '/_google-api-php-client-php70/vendor/autoload.php';

        $client = new \Google_Client();

        $client->setAuthConfig('/_google-api-php-client-php70/blablabla-777c77777777.json');
        $client->addScope('https://www.googleapis.com/auth/indexing');
        $client->setUseBatch(true);

        $service = new \Google_Service_Indexing($client);
        $batch = $service->createBatch();

        foreach ($links as $link) {
            
            $postBody = new \Google_Service_Indexing_UrlNotification();

            $postBody->setUrl($link);
            $postBody->setType('URL_UPDATED');

            $batch->add($service->urlNotifications->publish($postBody));
        }

        $results = $batch->execute();


$client->setAuthConfig() - в этот метод засунуть путь к json файлу, полученному при создании сервисного аккаунта. 
В коде обработки в массиве $links просто список ссылок.

В ответ $batch->execute() присылает массив по количеству ссылок в запросе. Там может быть объекты классов:

1.  \Google\Service\Exception

У этого класса есть методы getCode() и getMessage()  (вообще он скорее всего наследует штатному Exception php, но это я не проверял). Вот хелп Гугла по ошибкам непосредственно indexing api: https://developers.google.com/search/apis/indexing-api/v3/core-errors?hl=ru#api-errors По заверениям Гугла, их прям совсем немного. Но это я тоже не проверял.

2. Если всё ок, то объект \Google\Service\Indexing\PublishUrlNotificationResponse В нём составной частью есть ещё какой-то объект, ща не помню какой, из которого можно достать ответ Гугла на запрос, который он описывает в хелпе по indexing api.


По первым тестам с превышением объявленных лимитов (запихиванием сразу огромного количества ссылок и т.п.) мысли следующие:

- Если в ответ Гугл накидал \Google\Service\Exception , то всё просто: 429 код - превышение лимита, 403 - проблемы с ключом доступа или включением api , 400 - кривые данные.

- Если же в ответ \Google\Service\Indexing\PublishUrlNotificationResponse , то тут хз. Во всех моих запросах он просто повторяет урлу, тип запроса (URL_UPDATED), указывает время запроса. Никаких данных по результатам обработки: принял он его к рассмотрению, не принял, поставил в очередь или что-то подобное - ничего такого нет. Поэтому я забил болт и на сайте в качестве успешного запроса по каждой урле засчитываю просто факт возврата по ней \Google\Service\Indexing\PublishUrlNotificationResponse

- Объявленное ограничение на суточное количество запросов (200) - какая-то хрень. С самого первого дня он сожрал на четверть больше ссылок прежде чем начал возвращать 429 код. Уже со второго дня Гугл сам автоматом начал повышать доступный лимит - хз почему так.

- Объявленное ограничение на разовое количество урл в пакетном запросе (100) - тоже хрень. С самых первых запросов Гугл спокойно жрал по 120-150 ссылок. Сегодня сожрал за раз без малого 500.

- Сброс суточного лимита в полночь по тихоокеанскому времени - скорее всего действительно так. По крайней мере очень на то похоже. Но в связи с бардаком в цифрах лимитов учёт остатков на сайте так нормально и не реализован.

Сорян, что слегка путано и возможно не систематизировано. Короче, думаю, вкратце суть ясна.

GitHub - googleapis/google-api-php-client: A PHP client library for accessing Google APIs
GitHub - googleapis/google-api-php-client: A PHP client library for accessing Google APIs
  • googleapis
  • github.com
The Google API Client Library enables you to work with Google APIs such as Gmail, Drive or YouTube on your server. These client libraries are officially supported by Google. However, the libraries are considered complete and are in maintenance mode. This means that we will address critical bugs and security issues but will not add any new...
Nokia x71 (https://x71.ru/) - хороший смартфон, и отзывы интересные
Vladimir SEO
На сайте с 19.10.2011
Offline
1929
#7280
Kykapa4a #:

Все перепробовал, а про sitemap забыл, да?


с чего ты решил что я забыл ? )) что за бред, карта сайта по дефолту отдает все страницы уже с первого дня ))
Brat_Sergij #:

" the Google Indexing API officially supports pages containing Job Posting and Livestream structured data – it is officially recommended to use only on such websites.  "

Ох, как бы к проблемной индексации вообще бан от Гугла не получить... Они не любят нарушения своих правил.

это же от ранк мата - странно что они его не встроили в плагин сам , там у них быстроботбинга зачем то

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий