- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
подскажите... идет разработка поисковика (пока-что робота)...
нужна начальная база... не хочу ждать когда пользователи начнуть
добавлять урлы
как лучше сделать...
пробовал перебором ip:
посоветуйте как можно сделать...
Почему бы не начать с любого каталога?
а за это по мозгам не дадут?
может еще есть вырианты
4LF, вообще-то робот должен собирать ссылки со страниц, и ходить уже по ним. Начав с какого-то одного сайта по ссылкам вы вытащите сколь угодно большую базу себе. Начать можно вообще практически с любого сайта, только соблюдайте стандарт robots.txt.
Начни с dmoz.org - не дадут по мозгам ;)
а как работает http://web.archive.org/ = он весь веб сохраняет в себе... и как он находит все сущесвующие сайты???
Так и находит - по ссылкам. Если на какой-то сайт ссылок нет с других сайтов - то он его и не найдет сам.
Ну еще можно парсить списки доменов ;)
хе а где-нить есть эти списки
может кто все таки подскажет?
4LF, можешь смело начать с link.Axes.ru, никто тебе по мозгам не даст.
Если делаеш серьёзный поисковик для народа, а не для себя, то можем для твоей машины сделать экспорт из БД всех URL, причём даже можно с пометками.
Перебирать IP адреса - дело крайне бесполезное, потому что, на 1 IP может приходиться и тысяча сайтов, если это хостинг, или десяток-два, если этой чей-то выделенный сервер.
Тогда уж лучше устаривать брутофорс вида A.ru B.ru C.ru ... AAA.ru AAC.ru ...
К тому времени когда он закончиться, может быть солнце ещё будет светить :)