- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
кстати, я этих ахтунгов в журнале посещений у себя на сайтах заметил
в .htaccess в блок по IP и в список bad bot добавить тоже неплохо.
Штраф во много сотен или тысяч зеленых гарантирован.
10 000 рупий
Да ничего не сделаешь
1)в роботс запрет прописывать бессмысленно, могут тупо имя на гугол сменить
2)IP блок не поможет, так как прокси уже давно цепляются
3)прописать в шапку скрипт тоже бессмысленно он может элементарно регулярками вырезаться
Сам такие штуки юзаю для создания MFA с автопереводом
Как оно работает можно посмотреть на демке https://dollysites.com
Если кто такое купить захочет пишите в личку дам промокод на скидку 10%
1)в роботс запрет прописывать бессмысленно, могут тупо имя на гугол сменить
Зачем? 🤪
При чём здесь роботс вообще?
Да ничего не сделаешь
ну чего-то можно - конкретно с этими ахтунгами - проверил на своих сайтах, где стоит вышеупомянтый скрипт - пример https://sur.ly/o/webdomainplus.com/AA000014
срабатывает редирект на собственный сайт, можно на любой другой.
вот несколько вариантов кода http://webdomainplus.com/services/frame-protection/
---------- Добавлено 13.09.2019 в 13:49 ----------
Зачем? 🤪
При чём здесь роботс вообще?
да что бы было
или как вариант в роботсе прописать список, как уже ранее Glueon предложил
Disallow: /
а потом в .htaccess
RewriteCond %{REQUEST_URI} !/robots.txt$
RewriteCond %{HTTP_USER_AGENT} ^$ [OR]
RewriteCond %{HTTP_USER_AGENT} ^.*SurdotlyBot.*$ [NC,OR]
.....
RewriteRule ^.*.* http://www.google.com/ [L]
Вообще, прикольно так они всех напарсили: https://www.google.com/search?q=site%3Asur.ly
Я сомневаюсь, что они будут игнорировать запрет для бота в robots, но проверять лень. Если игнорируют, можно послать запрос на удаление сайта через контактную форму: https://sur.ly/contacts (она у них залинкована как remove request)
Способ с фреймом тут излишен, как мне кажется. В LumenDatabase на них относительно мало жалоб, так что скорее всего они все шустро сами удаляют.
как вариант в роботсе прописать список
И ты туда же? Левые роботы клали на ваши роботсы. Этот файл читают только те, кто очень хочет это делать, это для кого-то до сих пор новость?
10 000 рупий
Тогда много фоток )
Левые роботы клали на ваши роботсы.
это понятно, это уже аксиома
но если у человека уже есть дефолтный список badbots в роботсе, то не нужно их добавлять отдельным списком в .htaccess
можно как я предложил выше
или вообще составить отдельный список в файле, к примеру с названием forbidden.php
Зачем? 🤪
При чём здесь роботс вообще?
На предыдущей странице деятель один советовал