sam7en

sam7en
Рейтинг
114
Регистрация
10.01.2010
Всем спасибо, видимо и вправду сервис в данный момент работает криво
Всем шалом, посоветуйте плиз партнерку под тематику "Курсы по заработку в интернете"
sam7en #:

Куплю дропы по тематике криптовалюта/финансы рассмотрю все предложения по всем бюджетам

Нужно очень много, потому буду рад всем откликам

Пишите в телегу - sam3d

В приоритете бурж с хорошим ссылочным

Куплю дропы по тематике криптовалюта/финансы рассмотрю все предложения по всем бюджетам

Нужно очень много, потому буду рад всем откликам

Пишите в телегу - sam3d

sgrumi:

Это решается через кэширование и throttling

Количество страниц - не важно. Понятно, что чем больше страниц, то тем дольше боты будут ходить по сайту.
Но отдавать страницы по запросу - это штатный функционал сайта, то за ради чего он вообще сделан.
Поэтому сайт должен штатно выдерживать как 10 секундное посещение ботами, так и 5 часовое.
И боты не запрашивают по миллиарду страниц одномоментно. Они делают это последовательно.

Все настроено. Боты шарахаются по сайту от 3 минут до 22,5 часов

Много памяти уходит на сам PHP и не все получается хранить в озу.

Нужно хранить часть в кэше озу и часть на диске

Я спрашивал про движок, потому что возможно я не смог найти готовое решение, которое жрет мало ресурсов и имеет все функции для грамотного кэширования

Sitealert:
Это 2 разных вопроса. Чтобы не грузить сервер при обычных запросах - эта задача решается в любом вменяемом движке, путём того же кеширования, например. А вот с поисковиками - сложнее. Хотя, по идее, у поискового бота на Ваш сайт выделено ограниченное время, и всё равно он не будет просматривать миллиард страниц. Именно поэтому для оптимизации работы поисковых ботов существует сайтмап. А вредных ботов, которые маскируются под поисковых, надо просто банить.

Сайт не один, их много, потому роботы сканируют достаточно много страниц. А на сам человеческий трафик остается не так много ресурсов. Сайтмапы есть и мне важно держать максимальное количество страниц в индексе.

Кеширование настроено и этого недостаточно. Все ненужные роботы в бане

Пардон, никак не ожидал что кто-то ответит.

Спасибо за дельные советы danforth , MrLexKo, DiKiJ

Ботов банили, крол дилэй и вправду не работает.

В вебмастера такие сайты добавлять рискованно.

Сервера вот такие в основном - https://hetzner.com/hosting/produkte_rootserver/ex41/

Миллиарды страниц - парсинг + генерация

Кеширование конечно же реализовано.

Вопрос был про движки, которые при наличии миллиардов страниц не будут грузить сервер и как уменьшать нагрузку от роботов пс

Посоветуйте партнерку с хорошими готовыми тизерами для поискового ру трафа?

Тематики следующие:

Авто

Сериалы, кино

Свадьба

Мамочки

Путешествия и страны

Кулинария

Любовь

Мультики

и еще куча всего, устану писать.

DirectoryIndex /site/index.php

Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} www^blablabla\.ru$ [NC]
RewriteRule ^(.*)$ http://blablabla.bla/$1 [R=301,L]

RewriteEngine On
Redirect 301 /?page_id=64 http://blablabla.bla

вот так выглядит htaccess

с проблемой так и не справился. кто поможет?

в итоге проиндексировался сегодня.

убрал редирект с домена на домен с www

видимо он и мешал индексации.

всем спасибо!

Всего: 47