- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
парсер написан на php
скорость зависит от количества ссылок 2 и 3 уровней на сайте
По моим граблям идете)
Дальше не имеет смысла продолжать.
По моим граблям идете)
Дальше не имеет смысла продолжать.
почему не имеет смысла?
парсер написан на php
проверяем сайт с 1000 страниц
Для каждой странички ее нужно скачать (примерно 20-30 килов текста) = 20 метров
потом еще нужно вытацить все внутренние ссылки (опять регексп)
и на каждой убрать javascript (это или регекспом или своим парсером)
память пошла течь
а также еще и процесорное время.
Но это же все 1 сайт.
Мы постараемся сделать, чтобы скрипт работал как можно быстрее, но мы не отрицаем того, что нужно будет время, для проверки ссылок и чем их будет больше, тем дольше он будет проверять!
но по другому работать скрипт не может =)
Мы постараемся сделать, чтобы скрипт работал как можно быстрее, но мы не отрицаем того, что нужно будет время, для проверки ссылок и чем их будет больше, тем дольше он будет проверять!
но по другому работать скрипт не может =)
поэтому я и написал "По моим граблям идете"
какой бы не ПХП, не потоковый он и не быстрый в плане парсинга (
Я так понимаю идея умерла?
Я так понимаю идея умерла?
У каго умерла , а у Каго и нет )
проверяем сайт с 1000 страниц
ну как бы если это сервак, то ничего страшного, вопрос скорее во времени, лично я делал интервалы по 5 сек между обращениями к одному сайту. что бы не "убить" его не нароком.
но конечно в режиме онлайн проверить 1000 страниц налету невозможно - должен быть паук + у него есть база заявок для обхода
может и будет такой сервис в рамках моего проекта в будущем...