- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вообщем понадобилось вывести 1000 поисковых запросов для индексации гугл на сайте wordpress.
Указываю ссылки на сайте в таком виде:
http:///domain.com/?s=my+car
http:///domain.com/?s=my+super+car
......
http:///domain.com/?s=my+board
Google начинает индексировать эти поисковые запросы на сайте и к чертям валит весь сайт. Вопрос вот в чём, как вывести эти запросы без нагрузки на сервер. Может скрипт или плагин есть, который сразу же закэширует нужные мне запросы или логическую цепочку как-то поменять для вывода. Что бы он каждый раз всю базу не прогонял в поисках там нужной информации?
Закрывайте от индексации. По /?s= вроде можно. На наших сайтах поисковые запросы обычно имеют адреса /search/..., а в роботс написано просто «Disallow: /search/».
Закрывайте от индексации. По /?s= вроде можно. На наших сайтах поисковые запросы обычно имеют адреса /search/..., а в роботс написано просто «Disallow: /search/».
Нужно как раз наоборот что бы эти страницы попали в выдачу, когда бот их индексирует - сервер просто ложится. :(
ХЗ что у вас за сервер, если его запрос к 1000 страниц валит.
Ставьте модули кеширования для WP. Их много, есть разные комбинации, в сети масса статей о установке и настройке.
Или пробуйте crawl-delay решить проблему(хотя он и работает через одно известное место).
Рано или поздно поисковик вернётся (и, возможно, не один), чтобы переиндексировать эти страницы.
Нужно оптимизировать поиск по сайту, чтобы
он каждый раз всю базу не прогонял в поисках там нужной информации
ХЗ что у вас за сервер, если его запрос к 1000 страниц валит.
Ставьте модули кеширования для WP. Их много, есть разные комбинации, в сети масса статей о установке и настройке.
Или пробуйте crawl-delay решить проблему(хотя он и работает через одно известное место).
Гугл не один индексирует, помимо его, туева куча ещё хрен пойми чего, что индексирует сайты. Сервер достаточно мошный 32 гига оперативы, 8 ядер проц. На сервере всего 3 сайта.
Поставил Fast Cache думаю исправится обстановка, один раз бот пройдётся любой и страницы в кэше.
---------- Post added 19-12-2017 at 10:54 ----------
;15394814']Рано или поздно поисковик вернётся (и, возможно, не один), чтобы переиндексировать эти страницы.
Нужно оптимизировать поиск по сайту, чтобы
Думаю кэш решит вопрос.