Это понятно. Но как усложнить им задачу, чтобы обходилось дороже? Ведь по расценкам там на распознавание капчи около доллара за 1000 шт. Обидно когда просто берет расчеты с твоего сайта и использует на своем в реальном времени.
Вот результат математической капчи именно для этого ай пи:
Какая вообще у них логика работы? Встраивает такую же форму у себя на сайте, получает изображение капчи и отправляет по api на сервис распознавания, получает код и отправляет данные формы на мой сайт, а потом парсит выдачу моей страницы? В какой момент можно как-то прервать/заторможить и т.д. это?
OK_MC! / 16:27:43 / 3OK_MC! / 16:28:33 / 4OK_MC! / 16:28:52 / 9OK_MC! / 16:29:13 / 10OK_MC! / 16:29:40 / 3Protection. Error. Invalid code.<br> 16:29:58 / 5OK_MC! / 16:30:06 / 2OK_MC! / 16:30:33 / 7OK_MC! / 16:30:51 / 7OK_MC! / 16:31:11 / 2OK_MC! / 16:31:53 / 7OK_MC! / 16:33:33 / 3OK_MC! / 16:33:54 / 7OK_MC! / 16:34:27 / 2OK_MC! / 16:36:53 / 4Protection. Error. Invalid code.<br> 16:37:36 / 10Error. You're making a lot of requests. Repeat after some time. <span class="ts22 t-blue">(10 sec.)</span><br> 16:37:43 / 3OK_MC! / 16:38:19 / 7OK_MC! / 16:39:32 / 2OK_MC! / 16:39:48 / 10OK_MC! / 16:40:23 / 2OK_MC! / 16:40:47 / 4OK_MC! / 16:43:28 / 3
А Вы клауд платный тариф используете? На бесплатном будут проблемы с доступностью сайта?
А что это такое? Как расшифровывается?
Если же страница будет в кэше CF, то все равно для последующих пользователей она будет браться оттуда.
Вот писал: " Плюс только в том что при первом заходе и тогда когда не проводятся расчеты сайт по идее должен быстрее открываться в разных частях планеты. "
Я не силен в администрировании серверов. Немного начал читать о AWS, но мне кажется что может быть больше проблем, чем профита ))
В принципе на текущем хостинге написано, что у них прямое подключение ко многим операторам связи в мире. Да и сайт сейчас быстро открывается.
Если сделать такое, то это даст какое-то преимущество в скорости или не нужно мучиться?
1) Сделать кэш страниц (физически разместить html страницы на сайте), чтобы сервер отдавал без пхп обработчика. (Ну и естественно настрой кэширования статики. Сейчас сайт также работает через OPcache)
2) И такой интересный вопрос: Так как при расчетах УРЛ не меняется (результаты отображаются на том же УРЛ, что и форма), то при кэшировании нужно в .htaccess сделать проверки на POST запрос (если такой есть то отправляем на index.php иначе на кэш страницы). Или, хочу так попробовать сделать, отображать результат без перезагрузки страницы через JS. В таком случае будет меньше в статистике просмотров страниц. Это кажется не должно быть проблемой для Гугла. Или я ошибаюсь?
Я же указал. Чтобы первая страница быстрее загружалась (например когда пользователь переходит из поиска гугла).
То есть в настройках Cloudflare есть возможность запретить кэширование, когда идет с POST запросом (когда отправляется форма)? Я просто этим сервисом не пользовался.
URL не меняется (то есть в action формы идет такой же как и у страницы без отправки). Он по POST запросу определяет что нужно обратиться на сервер хостинга?
Думал показать Гуглу, что на сайте есть постоянные периодические изменения )
Хотя проект полукоммерческий и в контактах только социальные сети, но все равно наверное не буду закрывать от индексации. А была такая мысль )
насколько понижается? как по мне то может быстробот залетает и анонсы статьи переиндексивает - главные там рубрики итд итп.
Если в результате все равно растет - то можно не заморачиваться
Ну вот написал статью на 15 000 символов (англ.) и перевел на несколько языков. Размещаю по одной в день или через день (эти языковые версии). Например сегодня где-то в 11 разместил на сайте, через апи гугла добавил в индекс. Мониторю через Гугл аналитику "Отчет в реальном времени" - видно что на определенное время идет провал по количеству на несколько часов (если обычно по статистике идет 10-12 за 30 минут, то снижается до 4-5). Вот с 20-00 снова нормальная картина.
Может сразу все добавить, а не по одной?
Здесь может несколько вариантов.
1. Если старался писал статью и жалко удалять. Хотя, может Вы и правы в этом случае - если эта информация никому не нужна.
2. А если страница например Контактов?
Хотел еще у Вас спросить. Не знаю есть такое или нет? Сайт на 1000 страниц в индексе. Ситуация с Гуглом: размещаю новую статью и временно (где-то на день или пол дня) понижается трафик с Гугла. Спасибо
А если для страницы отдавать <meta name="robots" content="noindex"> ?