Всех User-Agent попробовал, одни и те же результаты.
Значит не всех.
Игнорирование роботс.тхт не всегда достаточно.
Влияет еще количество потоков\запросов в промежуток времени и имя бота.
Если именно заставлять ссылку то она же не живая. Нужно привязать вебмастера к стулу и пытать утюгом, пока не проиндексирует. И то может не получиться, и вебмастер умрет от увечий, потому что Google еще упрямее.
google indexing api только для своих сайтов, а если ссылка размещена в блоге чужого?
То прилетит хищник и откусит чужому яйцо.
Почитайте правила ютуб прежде чем задавать такие вопросы. Вы их 1000% даже и не пытались начинать читать.
Даже те кто не не занимается ютубом знают ответ на этот вопрос.
Понял, может есть какое-то решение? Мира, гогетлинкс и трастовые здесь на форуме заказывал
Я эту проблему решил на 80% через этого господина - https://searchengines.guru/ru/forum/1052873
1. Когда фейсбук обращался к сайту, он мог быть в дауне.2. Так же проверьте ваш файл роботс.тхт и .htaccess на наличие забаненых айпишников и ботов.3. Проверьте в панели хостинга нет ли в ней забаненых айпи и ботов.4. Если копать еще глубже, то хостинг мог забанить за слишком частое обращение к сайту (у меня такое было даже с гуглом).