- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Иногда всё-таки получается прорваться. Эти два дня я и покупал и продавал ссылки. (С продажей проблем не было, а вот покупателей очень мало)
Хм.. не наблюдаю такого эффекта. Тексты ссылок же с папки на моём сайте берутся, а с sape.ru только обновляются. Может вы всё-таки удалили базу ссылок, как в новом "мануале" написано? ;) Надо будет внимательно глянуть, что там делается в этом sape.php... Сейчас, минутку
В базе сидит <!--check code-->. Я так понимаю, что sape пытался обновить блок ссылок, старый затер, пытается получить новый. Поэтому при каждой загрузке страницы происходит запрос к серверу, который крепко лежит.
Ну да, по ходу, если файла links.db нет, то будет произведена попытка его скачать
162я строчка:
И в новой версии они явно изменили вот эти параметры, чтобы не глючили клиентские сайты, и меньше было нагрузки на их сервер:
Т.о. могу порекомендовать вам скачать обновление sape.php с сайта, или же, если вы его уже провели, то восстановить ваш links.db, если вы сделали его резервную копию
Убейте меня, но я не понимаю, что там ДДОСить-то можно? кто-то может объяснить?
Грубо говоря, если ддосят через "морду" сайта, то отследили IP, закрыли на файрволе, поставили дима_но_флуд и забыли, если ддосят через модули, которые отдают ссылки, то тут вообще все достаточно просто, там могут лезть только участники системы, а они зарегистрированы все. Ну не могут за ссылками для одного сайта лезть через прокси или с 20-ти IP одновременно ;), не может один и тот же сайт все время запрашивать ссылочную базу, ибо кеширование локальное есть и т.д.
Вывод у меня напрашивается один:
- слабый сервер, практически уверен, что не дедик;
- плюс неправильно написанное ПО, прошу прощения, но как написано то ПО, которое обслуживает эту кухню, я уже выше показал ;).
Если вменяемый хостер, то он сам должен непонятную активность еще на подлете к серверу в блекхол засылать либо автоматом, либо по запросу.
*-online.ru(кому надо сам посмотрит) - и это хостер да вы чего все попадали с дуба, там небось дети дилетанты сидят ( если я неошибся и это реально хостер а не просто днс чьи-то) . Если это хостер то канал у него узкий тк ноги растут из MASTERHOST NOC а там с каналами вечные проблемы см форум хостобзора . Ребятам из личного опыта могу посоветовать перетащить сервак или аккаунт напрямую в m10(мало кто жаловался на СТЭК) или Peterhost (тошные, но ответственные люди и с досом могут справиться если дос в разумных приделах) . Но это сугубо моё имхо, надеюсь никого необидел .
Yukko, хостер - мастерхост, вот ему и незачот!
a-little-seo, на online я так понимаю подняты зоны и все.
Пока наблюдаю отсутствие новых заявок на размещение на моих сайтах До сбоев брали хорошо
Такая же фигня... :(
Да откуда им взяться-то - заявкам, если сервис лежит...
у меня еще один вопрос: а почему мы про хостинг разговариваем, когда должны про колокейшн отдельного выделенного под конкретный проект сервера говорить?
Грубо говоря, если ддосят через "морду" сайта, то отследили IP, закрыли на файрволе, поставили дима_но_флуд и забыли, если ддосят через модули, которые отдают ссылки, то тут вообще все достаточно просто, там могут лезть только участники системы, а они зарегистрированы все. Ну не могут за ссылками для одного сайта лезть через прокси или с 20-ти IP одновременно , не может один и тот же сайт все время запрашивать ссылочную базу, ибо кеширование локальное есть и т.д.
Вывод у меня напрашивается один:
- слабый сервер, практически уверен, что не дедик;
- плюс неправильно написанное ПО, прошу прощения, но как написано то ПО, которое обслуживает эту кухню, я уже выше показал .
Если вменяемый хостер, то он сам должен непонятную активность еще на подлете к серверу в блекхол засылать либо автоматом, либо по запросу.
Вы знаете как досить можно? Опишу два способа, кроме вашего бредового.
Первый:
Допустим есть 100 сайтов с посещаемостью в 10-20 тысяч чел/сутки (в корее, китае, японии таких до%ера и стоят они копейки) повесить на этот сайт картинку которая качается с вашего сайтеца, канал у которого 100 мБ, в лучшем случае отдаёт 20-30 мБ, т. к. хостер часто распаралеливает один канал на всю стойку серверов. Размер картинки 5 Кб.
Вешаем канал:
Через канал в 20-30 мБ (мегабит) можно одновременно скачивать 500-750 таких картинок... у нас качается по 1000, и может не одна картинка, а несколько, причём запросы идут с совершенно разных IP-адресов, владельцы которых даже не знают об этом, забанить весь мир? :)
Вторая ситуация, вешаем БД:
Я незнаю наверняка какая база стоит на SAPE но подозреваю что MySQL.
Так вот, MySQL по-умолчанию может обрабатывать лишь 10 одновременных подключений к базе, допустим подключений 100 если делать больше надо расширять оперативку до бесконечности для 100 подключений уже более 4 Гб, но у нас нагрузка в 1000 пользователей одновременно :)
Этим объясняется падение ДОС-запросов по ночам и невозможность решить проблему блокировкой определённых IP. Аппаратный фаервол тут тоже не поможет.
Yukko, Извините, написал "бредового" потом понял, что вы никакого способа не описывали, погорячился