Вот писал: " Плюс только в том что при первом заходе и тогда когда не проводятся расчеты сайт по идее должен быстрее открываться в разных частях планеты. "
Я не силен в администрировании серверов. Немного начал читать о AWS, но мне кажется что может быть больше проблем, чем профита ))
В принципе на текущем хостинге написано, что у них прямое подключение ко многим операторам связи в мире. Да и сайт сейчас быстро открывается.
Если сделать такое, то это даст какое-то преимущество в скорости или не нужно мучиться?
1) Сделать кэш страниц (физически разместить html страницы на сайте), чтобы сервер отдавал без пхп обработчика. (Ну и естественно настрой кэширования статики. Сейчас сайт также работает через OPcache)
2) И такой интересный вопрос: Так как при расчетах УРЛ не меняется (результаты отображаются на том же УРЛ, что и форма), то при кэшировании нужно в .htaccess сделать проверки на POST запрос (если такой есть то отправляем на index.php иначе на кэш страницы). Или, хочу так попробовать сделать, отображать результат без перезагрузки страницы через JS. В таком случае будет меньше в статистике просмотров страниц. Это кажется не должно быть проблемой для Гугла. Или я ошибаюсь?
Я же указал. Чтобы первая страница быстрее загружалась (например когда пользователь переходит из поиска гугла).
То есть в настройках Cloudflare есть возможность запретить кэширование, когда идет с POST запросом (когда отправляется форма)? Я просто этим сервисом не пользовался.
URL не меняется (то есть в action формы идет такой же как и у страницы без отправки). Он по POST запросу определяет что нужно обратиться на сервер хостинга?
Думал показать Гуглу, что на сайте есть постоянные периодические изменения )
Хотя проект полукоммерческий и в контактах только социальные сети, но все равно наверное не буду закрывать от индексации. А была такая мысль )
насколько понижается? как по мне то может быстробот залетает и анонсы статьи переиндексивает - главные там рубрики итд итп.
Если в результате все равно растет - то можно не заморачиваться
Ну вот написал статью на 15 000 символов (англ.) и перевел на несколько языков. Размещаю по одной в день или через день (эти языковые версии). Например сегодня где-то в 11 разместил на сайте, через апи гугла добавил в индекс. Мониторю через Гугл аналитику "Отчет в реальном времени" - видно что на определенное время идет провал по количеству на несколько часов (если обычно по статистике идет 10-12 за 30 минут, то снижается до 4-5). Вот с 20-00 снова нормальная картина.
Может сразу все добавить, а не по одной?
Здесь может несколько вариантов.
1. Если старался писал статью и жалко удалять. Хотя, может Вы и правы в этом случае - если эта информация никому не нужна.
2. А если страница например Контактов?
Хотел еще у Вас спросить. Не знаю есть такое или нет? Сайт на 1000 страниц в индексе. Ситуация с Гуглом: размещаю новую статью и временно (где-то на день или пол дня) понижается трафик с Гугла. Спасибо
А если для страницы отдавать <meta name="robots" content="noindex"> ?
Вот это описывает как минимум 50% почему такое поведение на сайте.
Нужно сначала изучить скольким людям это интересно (и в первую очередь бесплатно). По каким запросам вообще заходят на этот сайт?
Я подобными темами интересуюсь и есть сайт с бесплатными гороскопами и астрологией. Но мое поведение на сайте было же такое как описано в первом посте )
Моя логика в данной тематике - сначала нужно дать человеку что-то бесплатное (в том числе первую бесплатную консультацию) и возможно он закажет и платную. А в таком формате и с такими ценами - это гиблое дело (мое мнение).
Это точно?
Если Гугл понимает и убирает сам это из адреса, то тогда да. А так это другой адрес получается.
Наверное, если можно убрать, то лучше убрать.
Нашел в чем причина. Открыл файл скрипта index.js
.readFileSync('urls.txt')
.toString()
.split('\n');
заменил на .split('\r\n');