- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если вас интересует процесс, то я легко вам его изложу, берете, генерируете все возможное кол-во доменов в одну базу, а следом начинаете в цикле подключаться на 80й порт сервера телнетом и путем GET пробуете получить правильный ответ
и через несколько секунд получаю бан фаерволом сервера :)
в процессе штатных запросов тех же поисковых ботов, они просто запоминают на ком IP был сайт.... а дальше это спокойно можно анализировать..... и показывать в виде "сколько на конкретном IP сайтов есть в системе".
именно это и делается, вдобавок можно проверить точность сбора с помощью adns - сверяется текущий ip домена с проверяемым, если совпадают - домен всё еще на том же ip.
именно это и делается, вдобавок можно проверить точность сбора с помощью adns - сверяется текущий ip домена с проверяемым, если совпадают - домен всё еще на том же ip.
НЕ забываем о том, что гугл и прочие боты могут не дойти до сайта ;)
угу, это печально.
собираюсь грабить 1stat.ru для получения более подробной информации о русских(имеющих домен в зонах .ru/.su) хостерах.
есть подобные сервисы для других зон?
по советам bugsmoran (тоже мне насоветовал!) исправил код. изменения:
- полностью убрана работа с файлами, теперь всё хранится в памяти (за исключением сохранения списка собранных доменов в domains.txt).
- убрана одна зависимость: adns. решил вместо adnshost для проверки правильности сбора доменов использовать dig
- разукрасил помощь (опция -h или просто запуск скрипта без параметров)
- теперь можно задавать свои dns-сервера, кроме гугловских и opendns
(но все равно еще в нескольких местах используются определённые dns-сервера, а не заданные. позже изменю)
- добавлена опция -s для сбора заголовков с веб-серверов
(если указать опцию -ss то заголовки выведутся не целиком, а только Server: )
(для вывода заголовков веб-сервер ищется не только на 80 и 8080 портах, а на всех помеченных "http" портах из hto_ports, которые включают в себя веб-серверы cpanel`и, directadmin`а и других панелей)
- при скане портов выводится текущий порт, чтобы не казалось, будто скрипт завис
предложения по исправлению/улучшению кода приветствуются :)
ссылка в первом посте, или сделайте sh hto.sh -u, у кого скрипт уже есть.