- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Покажи посонам на форуме сеодора, а то я не знаю где это.
http://seodor.biz/forum/threads/292/page-3
---------- Post added 13-09-2015 at 17:21 ----------
Давай ты мне расскажешь как проверить грузит или нет. Не ну серьёзно.
Залей доменов 20 и начни кешировать каждый одновременно хотя бы в 1 поток.
Вот дор на сеодоре на 700 тыс кейвордов
Ну по 1 дору оценивать нельзя, я говорил про пачки на десятки-сотни хотя бы.
http://seodor.biz/forum/threads/292/page-3
Надо регестрироваться, мне влом.
Залей доменов 20 и начни кешировать каждый одновременно хотя бы в 1 поток.
Зачем их кашировать самому? Там вроде как делается по мере обращения робота ПС. И да по 20 не заливал, но по 10 шт разом было и не раз. Я ж не матёрый дорвейщег, больше даже лубочный. 🤪
Вот остатки СЕОдора на той виртуалке, многие заменил сайтами на другом доргене, раньше было раза три больше.
На посещалку не смотреть, скрин делался вчера чуть заполночь, но выложить постеснялся. 😂
Зачем их кашировать самому?
Чтобы боту быстрее отдать и распланировать нагрузку заранее. Например чтобы сервер не умер когда придут боты на все домены :)
И да по 20 не заливал, но по 10 шт разом было и не раз.
Тогда понятно, я о других ситуациях говорил.
hakuna matata, я ж вроде признался уже, что не прав был. 😡 К чему дальше спор? 🍾
Adblock блочит фрейм с прокладкой. Белый экран. Или пофиг на адблок?
А как быть?
hakuna matata, я ж вроде признался уже, что не прав был. К чему дальше спор?
Не спор, я подумал что может ошибаюсь и у сеодора какая то есть тайная кнопка "не тормозить" :) Просто знаю много людей, которые не смогли его использовать именно по этой причине и я из их числа.
hakuna matata, я ж вроде признался уже, что не прав был. 😡 К чему дальше спор? 🍾
А как быть?
ну хз, наверное можно прокладку эту слить и повесить либо на свой домен, либо в каждый дор пихать
Фома если ты не кешируя дор загонишь ботов пс одновременно на 10 доров,
то они тебе сервак положат в течении 5 минут.
Пэтому кешировать надо самому заранее хотябы 50 процентов ключей
Фома если ты не кешируя дор загонишь ботов пс одновременно на 10 доров,
то они тебе сервак положат в течении 5 минут.
Пэтому кешировать надо самому заранее хотябы 50 процентов ключей
Ну нереально же 100 к запросов в гугл отправить для такого кэширования заранее.
Я вот думаю, может стоит делать так:
1) если запросов прилетает слишком много, отдавать какой-нибудь контент (неважно, из файла, или из кэшированного уже)
2) ставить запрос в очередь на парсинг, в следующий раз отдать нормальный контент
Понятное дело вариант так себе, но лучше чем сервер положить. Но парсить сотни тысяч страниц поисковиков - нереально же.
Ну нереально же 100 к запросов в гугл отправить для такого кэширования заранее.
о_О При чем тут гугл. Кеширование - это прямое обращение с твоего компа на сервер дора.
Скрипт в доре выполняет парсинг и сохраняет результат в кеш. А уже потом приходит гугля и обращаясь к дору получает из кеша.
Проблема в том что и при кешировании будут обращения к источникам парсинга, значит могут быть баны со стороны этих источников контента.
о_О При чем тут гугл. Кеширование - это прямое обращение с твоего компа на сервер дора.
Скрипт в доре выполняет парсинг и сохраняет результат в кеш. А уже потом приходит гугля и обращаясь к дору получает из кеша.
Проблема в том что и при кешировании будут обращения к источникам парсинга, значит могут быть баны со стороны этих источников контента.
Я может криво выразил свои мысли (когда код пишу, мозг переходит в другое русло), но мы говорим об одном и том же. Гугл привел для примера, источник может быть любым.
Я к тому, что shadson предлагает заранее кэшировать половину ключей. Под "заранее" я понимаю генерацию этого кэша на локальном пк (ну или сервере) при создании. Но это лишь перекладывает проблему в другую плоскость. Доры у нас разгрузятся (поисковики будут брать статику в половине случаев), но при создании нужно будет постоянно делать себе мозги с кучей прокси (ведь придется сразу парсить под каждый дор кэш в большом количестве). Надеюсь ясно выразился.
У меня просто у самого дорген по такому принципу построен, сейчас собираюсь переписывать, а адекватного решения не вижу.