Не всегда, если проблема не касается индексации, потери мест в поиске и такого рода, то попадаешь на человека и вопрос решается. Причём даже общение уже после чата в тикете, идёт адекватно.
Да везде одни и те же площадки.
Что-то типо такой 404?
<?php// Моментальный редиректheader("Location: https://www.google.com", true, 301);exit();?>------------<?php// С задержкойа в секундах$delay = 5;// URL для редиректа$url = "https://www.google.com";// Отправляем заголовок Content-Typeheader("Content-Type: text/html; charset=utf-8");?><!DOCTYPE html><html lang="ru"><head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>404</title> <script type="text/javascript"> // Функция для редиректа через заданное время setTimeout(function() { window.location.href = "<?php echo $url; ?>"; }, <?php echo $delay * 1000; ?>); </script></head><body> <p>Ссылки на сайт обратно, что-то про 404</p> <!-- <p>Вы будете перенаправлены на <a href="<?php echo $url; ?>"><?php echo $url; ?></a> через <?php echo $delay; ?> секунд.</p> --></body></html>
Не дает как? Вы не можете послать на удаление в инструментах эти страницы, выполнив условия для удаления, не можете как-то заблокировать у себя на сайте( даже если их нет, robots.txt, теги, конкретно в 403)?
Сейчас глянул в поиске, а такие скрипты и примерно такого функционала аж с 2012 года в сети выложены и на гите и на сайтах. Комменты уже тогда были примерно такие как тут, но актуальность видимо не потеряна.думается от мало информированности о разных DDoS атаках, как они проводятся, чем, куда и на что нацелены.
Хотя можно обзывать свои скрипты как угодно и защитой от DDoS и от всемирного потопа и саранчи. Но в описании все же указывать реальное положение дел.
В скрипте ТС - это лишнее. Хоть какой-то эффект будет, вычислять долго и упорно, почему из панелей пс варнинги пошли, что сайт недоступен для индексации.На самом деле, это полезная защита от простеньких сканеров, которые ищут уязвимости. Но банить их по IP и явно указанным остальным данным, уже давно не вариант, они идут с десятков ипов, агентов, браузеров... в одной сессии. Другие сканеры и парсеры и IP меняют в запросе и промежутки между запросами разные. Даже боты ИИ, которые представляются, не тупят в этом плане. В итоге этот скрипт защиты, просто сам положит проект.Тут надо продумать очистку кеша забаненных по условию и моментально с изменением...
Куда-то ближе к </body>. Все на странице получат nofollow.
<script> document.addEventListener("DOMContentLoaded", function() { const links = document.querySelectorAll('a'); links.forEach(function(link) { link.setAttribute('rel', 'nofollow'); }); }); </script>
Disallow: / redirect / или Disallow: /* ?to Проверить.
То есть, фактически сейчас размещение ссылок на своем сайте не влияет на его ранжирование? Или все же можно улететь в бан или опуститься в самые анналы?
Может в бан и не улетишь, это на что надо ссылаться...но если это не какие-то авторитетные источники, сайты и тд, лучше точно не будет. Закрыть эти ссылки не трудный вопрос, есть вариант закрыть редиректом и его уже прикрыть в роботс и тегами, норм. Нет, пойдут стандартные в ссылках, хотя оба метода сразу не помешают.