- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго всем времени суток! Появилось очень много ссылок такого рода. Делают запрос со своим доменом в форме поиска на моём сайте, получают страницу, что такого не найдено, но в адресе этой страницы получатся уже есть их домен и вот на этот адрес ставят ссылки с эро магазинов и знакомств для взрослых.
Один человек дал совет, что нужно делать, но видимо очень спешил и не сказал как. Цитирую, что он ответил.
1) запретить индексацию результатов поиска через meta и robots.txt
2) настроить через .htaccess блокировку любых запросов содержащих http, .ru, .com и т.п.
С роботс понятно, но что прописывать в .htaccess ?
Поможите люди добры!
В в .htaccess тут ничего не пропишешь. Только на самой странице поиска добавить еще следует мета тег:
В в .htaccess тут ничего не пропишешь.
Ну почему ничего? Например, можно так:
Это позволит отсечь все запросы, которые содержат в качестве параметров искомые вводные.
Например, такой урл не пройдет: https://site.com/search.php?query=http://somesite.com
А дальше уже нужно понимать, какие именно урлы формируют боты и бить конкретно по уже этим запросам. Главное, ничего лишнего случайно не заблокировать )
Ну почему ничего? Например, можно так:
Это позволит отсечь все запросы, которые содержат в качестве параметров искомые вводные.
Например, такой урл не пройдет: https://site.com/search.php?query=http://somesite.com
А дальше уже нужно понимать, какие именно урлы формируют боты и бить конкретно по уже этим запросам. Главное, ничего лишнего случайно не заблокировать )
Почти все домены у них .shop .store
Значит мне нужно сделать так:
Верно?
Верно?
В принципе, добавив правила в htaccess и перейдя по проблемному урл - вы уже увидите, дает это результат или нет, блокируется ли такой запрос.
Да, в том случае, если урл такого типа, как я выше написал. В противном случае - нужно создавать правила под ваши запросы.
В принципе, добавив правила в htaccess и перейдя по проблемному урл - вы уже увидите, дает это результат или нет, блокируется ли такой запрос.
там урлы получаются вот такие
site.ru/?s=⣥💝%20Cheapest%20tabs%20on%20🔥%20www.Getroman.store%20🔥%20Esidrix%2025%20Mg%20Etken%20Maddesi%20💝⣥Order%20Esidrix%2025%20Mg%20Etken%20Maddesi%20-%20Esidrix%2025%20Mg%20Purchase%20Price
там урлы получаются вот такие
Да, этот урл с тем правилом, что выше привели - должен быть заблокирован. Поставьте и проверьте, чтобы убедиться.
Фрагмент /?s= не лучше вообще в роботсе закрыть?
я закрыл. просто хочу все форточки запечатать)