какой то нехороший человек копирует мой сайт...

123
W
На сайте с 09.09.2018
Offline
33
wdp
#11

кстати, я этих ахтунгов в журнале посещений у себя на сайтах заметил

54.227.78.30 SurdotlyBot http://sur.ly/bot.html

в .htaccess в блок по IP и в список bad bot добавить тоже неплохо.

консультации в личку не даю
savingleb
На сайте с 15.04.2007
Offline
401
#12
Grabber:
Штраф во много сотен или тысяч зеленых гарантирован.

10 000 рупий

Визовый центр в Санкт-Петербурге (https://visaspb.com/).
S
На сайте с 18.07.2013
Offline
97
#13

Да ничего не сделаешь

1)в роботс запрет прописывать бессмысленно, могут тупо имя на гугол сменить

2)IP блок не поможет, так как прокси уже давно цепляются

3)прописать в шапку скрипт тоже бессмысленно он может элементарно регулярками вырезаться

Сам такие штуки юзаю для создания MFA с автопереводом

Как оно работает можно посмотреть на демке https://dollysites.com

Если кто такое купить захочет пишите в личку дам промокод на скидку 10%

VDS для html сайтов за $1 в месяц (https://clck.ru/HkX48) а также VDS c Windows Server от $3 в месяц (https://clck.ru/HkaeQ)
S
На сайте с 30.09.2016
Offline
469
#14
Shraibikus:
1)в роботс запрет прописывать бессмысленно, могут тупо имя на гугол сменить

Зачем? 🤪

При чём здесь роботс вообще?

Отпилю лишнее, прикручу нужное, выправлю кривое. Вытравлю вредителей.
W
На сайте с 09.09.2018
Offline
33
wdp
#15
Shraibikus:
Да ничего не сделаешь

ну чего-то можно - конкретно с этими ахтунгами - проверил на своих сайтах, где стоит вышеупомянтый скрипт - пример https://sur.ly/o/webdomainplus.com/AA000014

срабатывает редирект на собственный сайт, можно на любой другой.

вот несколько вариантов кода http://webdomainplus.com/services/frame-protection/

---------- Добавлено 13.09.2019 в 13:49 ----------

Sitealert:
Зачем? 🤪
При чём здесь роботс вообще?

да что бы было

или как вариант в роботсе прописать список, как уже ранее Glueon предложил

User-agent: SurdotlyBot
Disallow: /

а потом в .htaccess

RewriteEngine On
RewriteCond %{REQUEST_URI} !/robots.txt$
RewriteCond %{HTTP_USER_AGENT} ^$ [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*SurdotlyBot.*$ [NC,OR]
.....
RewriteRule ^.*.* http://www.google.com/ [L]
Glueon
На сайте с 26.07.2013
Offline
172
#16

Вообще, прикольно так они всех напарсили: https://www.google.com/search?q=site%3Asur.ly

Я сомневаюсь, что они будут игнорировать запрет для бота в robots, но проверять лень. Если игнорируют, можно послать запрос на удаление сайта через контактную форму: https://sur.ly/contacts (она у них залинкована как remove request)

Способ с фреймом тут излишен, как мне кажется. В LumenDatabase на них относительно мало жалоб, так что скорее всего они все шустро сами удаляют.

Есть много IP-сетей в аренду под прокси, парсинг, рассылки (optin), vpn и хостинг. Телега: @contactroot ⚒ ContactRoot команда опытных сисадминов (/ru/forum/861038), свой LIR: сдаем в аренду сети IPv4/v6 (/ru/forum/1012475).
S
На сайте с 30.09.2016
Offline
469
#17
wdp:
как вариант в роботсе прописать список

И ты туда же? Левые роботы клали на ваши роботсы. Этот файл читают только те, кто очень хочет это делать, это для кого-то до сих пор новость?

Grabber
На сайте с 22.09.2004
Offline
181
#18
savingleb:
10 000 рупий

Тогда много фоток )

█ Хостинг от 50 руб. в месяц █ http://ruweb.net/?from=4243
W
На сайте с 09.09.2018
Offline
33
wdp
#19
Sitealert:
Левые роботы клали на ваши роботсы.

это понятно, это уже аксиома

но если у человека уже есть дефолтный список badbots в роботсе, то не нужно их добавлять отдельным списком в .htaccess

можно как я предложил выше

или вообще составить отдельный список в файле, к примеру с названием forbidden.php

RewriteCond %{REQUEST_URI} !/forbidden.php
S
На сайте с 18.07.2013
Offline
97
#20
Sitealert:
Зачем? 🤪
При чём здесь роботс вообще?

На предыдущей странице деятель один советовал

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий