- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Запретил роботу яндекса заходить на сайт, и все нормализовалось, благо сайт пока не думаю развивать, хочу сменить направление развития, пока руки до него не дошли.
Разумеется нормализовалось, но какой ценой. Просто отключите функцию передачу урлов боту. Бот яндекса формально ни при чем, это дело рук каких-то засранцев.
Разумеется нормализовалось, но какой ценой. Просто отключите функцию передачу урлов боту. Бот яндекса формально ни при чем, это дело рук каких-то засранцев.
Во как, не знал, надо будет посмотреть как это сделать спасибо.
Тоже актуальный вопрос по одному из сайтов. Подскажите, где находится эта функция?
Тоже актуальный вопрос по одному из сайтов. Подскажите, где находится эта функция?
/ru/forum/comment/13799546
о чем разговор, коды должны верные отдаваться вот и все + кэширование.
что за сайт такой который уязвим на такие дырки.
сильно грузит - забаньте бота через файл конфигурации апатча.
напишите в поддержку
/forum/index.php?b77545c0b03f1cb
а сам сайт не мог по ошибке такие url сгенерировать ? очень уж похоже на session id, но без параметра.
Вы походите по сайту с отключенными кукисами что-ли. В старых версиях ссылки с session id сплошь и рядом генерировались, но проблем это обычно не вызывало.
Уж больно детективно такие истории выглядят. Обычно все проще.
Уж больно детективно такие истории выглядят. Обычно все проще.
Другие админки себе такого не позволяют, сама проблема существует. Новая волна - уже этой осенью (судя по статистике) :)
а сам сайт не мог по ошибке такие url сгенерировать ? очень уж похоже на session id, но без параметра.
Вы походите по сайту с отключенными кукисами что-ли. В старых версиях ссылки с session id сплошь и рядом генерировались, но проблем это обычно не вызывало.
Уж больно детективно такие истории выглядят. Обычно все проще.
Так и есть, phpbb по крайней мере 2.х версии частенько выдавал такие ссылки, вот только не помню по каким причинам, но связано это было с проверкой актуальности данных на главной странице (чтобы из кеша страницу не юзать)
Спасибо за совет, но это не решает вопрос озвученный в первом посте топика.
Конечно решает, так как нагрузка спадет если 404 страницу отдавать будете с которой запросов в базу данных нет и html код генерить особо не надо, а обработать несколько запросов в секунду страницы 404 может любой дряхлый хостинг. Но опять же в phpbb эти урлы на сколько я помню нужны, только не помню с какими действиями они генерировались =) phpbb2.x использовал года 4 назад и такие урлы тоже видел у себя.
Но опять же в phpbb эти урлы на сколько я помню нужны, только не помню с какими действиями они генерировались =)
Это включался механизм ведения сессии пользователя по ссылкам когда кукисы запрещены. Во все ссылки дописывался идентификатор.
Могу только насчет vb уверенно заявить, что там внутри есть описания поисковых систем, где при обнаружении соответствующего useragent механизм выключается и ссылки становятся красивее.
Но данной случай отличается - тут нет параметра s=XXXX. Может из-за переделок движка все же возникла ошибка и полезли эти ссылки ?
Это включался механизм ведения сессии пользователя по ссылкам когда кукисы запрещены. Во все ссылки дописывался идентификатор.
Могу только насчет vb уверенно заявить, что там внутри есть описания поисковых систем, где при обнаружении соответствующего useragent механизм выключается и ссылки становятся красивее.
Но данной случай отличается - тут нет параметра s=XXXX. Может из-за переделок движка все же возникла ошибка и полезли эти ссылки ?
Ну тогда можно смело в nginx отлавливать ботов ПС и скидывать их на 404 с данных URL.
Тут кто то писал что такие URL могут в ПС появиться, данная проблема уходить при правильно robots.txt. Раньше использовал под phpbb запрещающий всё, но разрешающий ползать по топикам, темам, морде. Могу поискать его потребуется, хороший robots в 10-15 строк всего.
По сути на форуме и так две морды / и /index.php, второе можно закрыть думаю.