- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
отключаю временно код на нескольких десятках сайтов, иначе они просто лежат
Ссылки хранятся на сервере самого сайта, а сапа их лишь обновляет когда новые ссылки появляются или пропадают, отчего тогда сайтам лежать? У меня сейчас сайты нормально работают и ссылки отображаются.
Смешали все в кучу. Ничо, что код сапы работает без самой сапы? Голословные заявления оставьте при себе.
Про кварту это боян из боянов также.
Смешали все в кучу. Ничо, что код сапы работает без самой сапы?
Проверил три сайта на разных хостингах, периодически показывает "504 Gateway Time-out". Раньше такого не замечал, совпадение?
Ссылки хранятся на сервере самого сайта, а сапа их лишь обновляет когда новые ссылки появляются или пропадают, отчего тогда сайтам лежать? У меня сейчас сайты нормально работают и ссылки отображаются.
Оттого, что файл links.db устарел, а новый получить не получается, поэтому скрипты пытаются получить с сервера при каждом открытии страницы. Если всё работает отлично и файл не успел устареть, пройдёт таймаут (3600 секунд), и опять будет лежать
Оттого, что файл links.db устарел, а новый получить не получается, поэтому скрипты пытаются получить с сервера при каждом открытии страницы. Если всё работает отлично и файл не успел устареть, пройдёт таймаут (3600 секунд), и опять будет лежать
Проверил на десяти сайтах - тормозил один на гхосте.
Скорее бы сделали - отключаю временно код на нескольких десятках сайтов, иначе они просто лежат
У меня со всеми ок.
Проверил на десяти сайтах - тормозил один на гхосте.
Зависит ещё и от:
- кеширования в CMS, у меня почти на всех сайтах включено, кешированные страницы работают
- HTTP-таймаута при дёрганье сервера SAPE, если он установлен на малый - то всё будет ок
Это как варианты, что сделать можно, чтобы слегка обезопасить СДЛ
Не сцыте, Сапе железная. Выстоит.
Купленные\проданные ссылки на сайтах показываются нормально! ☝
Так стоп, обычно диспенсеры выносят на отдельные сервера, кварта вроде мегахостинг, ее ддосить все равно что ддосить Яндекс. Поэтому у нас может висеть интерфейс сапы, а ссылочке то вот они :)