- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Когда то были приобретены скрипты от сеобоксёра
До сей поры пользуюсь.
Куча закодированого полурабочего неудобного мусора от очередного говнокодера.
(Хотя раскодить и не проблема. Что я и сделал, после чего допиливал\доделывал\переделывал пока не забил)
Всё ещё в поисках дорогого готового парсера под вышеуказанные или близкие к ним условия (работающего на любом сервере, включая Windows, и любого по мощности).
Datacol купил, он не подошёл, не для вышеуказанных условий.
Content Downloader, пробовал, тоже не подошёл. X-Parser-PRO тоже слабенький.
Кто что использует? кто какой парсер посоветует?:) спасибо за ответы.
А я пользуюсь парсером UniParse от SciFi и мне хватает за глаза... И самое главное работает как на Windows так и на Linux