- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Именно " Обнаружена, не проиндексирована". И вот (тьфу-тьфу-тьфу), апишечка помогает. Через недельку, при такой динамике, все страницы должны залететь. Отпишусь, если это случится.
Именно " Обнаружена, не проиндексирована". И вот (тьфу-тьфу-тьфу), апишечка помогает. Через недельку, при такой динамике, все страницы должны залететь. Отпишусь, если это случится.
Присоединяюсь к вопросу как прикрутить сие чудо к Вордпресс.
Присоединяюсь к вопросу как прикрутить сие чудо к Вордпресс.
Плагин поставить и настроить https://wordpress.org/plugins/fast-indexing-api/
я и прогоны, и бот , и консоль , текст уник но синон, 75%
Все перепробовал, а про sitemap забыл, да?
Плагин поставить и настроить https://wordpress.org/plugins/fast-indexing-api/
Спасибо!
" the Google Indexing API officially supports pages containing Job Posting and Livestream structured data – it is officially recommended to use only on such websites. "
Ох, как бы к проблемной индексации вообще бан от Гугла не получить... Они не любят нарушения своих правил.
Значит, краткая инструкция, как запилить апишечку на сайт ВП. Не пинайте ногами, возможно всё это сделано криво, и можно проще, но учитывайте, что пилилось всё первый раз и вообще я в этом всём не очень разбираюсь.
- Регистрируем сервисный аккаунта в Гугл Клауд, получаем ключ доступа (файл json) , даём права сервисного аккаунта на серчконсоль, включаем API в гуглклауде.
- Запиливаем форму на сайт на ВП, делаем ей обработчик (каким образом, их немало - это решать тому, кто будет пилить).
- Качаем с Гитхаба клиент для работы с их апи (php версия клиента https://github.com/googleapis/google-api-php-client).
- Код для пакетных запросов:
В ответ $batch->execute() присылает массив по количеству ссылок в запросе. Там может быть объекты классов:
1. \Google\Service\Exception
У этого класса есть методы getCode() и getMessage() (вообще он скорее всего наследует штатному Exception php, но это я не проверял). Вот хелп Гугла по ошибкам непосредственно indexing api: https://developers.google.com/search/apis/indexing-api/v3/core-errors?hl=ru#api-errors По заверениям Гугла, их прям совсем немного. Но это я тоже не проверял.
2. Если всё ок, то объект \Google\Service\Indexing\PublishUrlNotificationResponse В нём составной частью есть ещё какой-то объект, ща не помню какой, из которого можно достать ответ Гугла на запрос, который он описывает в хелпе по indexing api.
По первым тестам с превышением объявленных лимитов (запихиванием сразу огромного количества ссылок и т.п.) мысли следующие:
- Если в ответ Гугл накидал \Google\Service\Exception , то всё просто: 429 код - превышение лимита, 403 - проблемы с ключом доступа или включением api , 400 - кривые данные.
- Если же в ответ \Google\Service\Indexing\PublishUrlNotificationResponse , то тут хз. Во всех моих запросах он просто повторяет урлу, тип запроса (URL_UPDATED), указывает время запроса. Никаких данных по результатам обработки: принял он его к рассмотрению, не принял, поставил в очередь или что-то подобное - ничего такого нет. Поэтому я забил болт и на сайте в качестве успешного запроса по каждой урле засчитываю просто факт возврата по ней \Google\Service\Indexing\PublishUrlNotificationResponse
- Объявленное ограничение на суточное количество запросов (200) - какая-то хрень. С самого первого дня он сожрал на четверть больше ссылок прежде чем начал возвращать 429 код. Уже со второго дня Гугл сам автоматом начал повышать доступный лимит - хз почему так.
- Объявленное ограничение на разовое количество урл в пакетном запросе (100) - тоже хрень. С самых первых запросов Гугл спокойно жрал по 120-150 ссылок. Сегодня сожрал за раз без малого 500.
- Сброс суточного лимита в полночь по тихоокеанскому времени - скорее всего действительно так. По крайней мере очень на то похоже. Но в связи с бардаком в цифрах лимитов учёт остатков на сайте так нормально и не реализован.
Сорян, что слегка путано и возможно не систематизировано. Короче, думаю, вкратце суть ясна.
Все перепробовал, а про sitemap забыл, да?
" the Google Indexing API officially supports pages containing Job Posting and Livestream structured data – it is officially recommended to use only on such websites. "
Ох, как бы к проблемной индексации вообще бан от Гугла не получить... Они не любят нарушения своих правил.