- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ув. вебмастера. Дошли руки до старого сайта сделанного по Веб 2.0 Но немного криво. В комментариях просочилась куча невидмого спама ( исход. ссылки через точки, смайлы, запятые и пр.) Надо все это почистить.
Подскажите, пожалуйста легкую софтину для поиска только исходящих ссылок по всему сайту. Так, как это к примеру делает бот сапы... Спасибо.
Если база в мускуле, то проще и быстрее будет в базе прочекать/удалить. Что-то типа
DELETE FROM table_name WHERE comments_text LIKE "%htttp://%"
Добавляйте в сапу, их бот класно с этой задачей справится :)
Добавляйте в сапу, их бот класно с этой задачей справится :)
Согласен, удобно, но большой минус в том, там только УВ 3 бьется((( Вот если бы подобный скриптик...
Konstantin12 добавил 23.07.2009 в 20:49
Если база в мускуле, то проще и быстрее будет в базе прочекать/удалить. Что-то типа
DELETE FROM table_name WHERE comments_text LIKE "%htttp://%"
Проблема в том, что там есть и полезные ссылки...
ну что может кто напишет робота который просканирует сайт, а потом на ссылки ?
Или я что-то не понимаю или одно из двух :)
Ведь есть же масса софта, проверяющего все линки сайта на валидность.
Как правило все эти программы дают отчет о линках (в тч и внешних).
Кроме того, есть онлайн сервисы делающие тоже самое. (Сейчас не вспомню, но встречал)
А если как-то сервис не может проверить ВСЕ страницы - ну скормите ему карту (как вариант по-уровневую)..
Из софта у меня вот завалялись: древний-древний CHECKWEB (ещё 1998г ;) ), REL Link Checker и какой-то linkscan.
Уж не помню точно каким именно из них я проверял линки и получал отчёты.
Пока писал - поискал (всё-таки полезный файл descript.ion и правильная качалка ;) ).
REL Link Checker теперь оказывается Web Link Validator, а linkscan тоже живет.
UPD.
xenulink вот еще вроде то..
Проблема в том, что там есть и полезные ссылки...
Konstantin12, ИМХО через БД всеравно будет быстрей всего.
Тем более, что сначала можно удалить комментарии содержащие
и тому подобную фигню.А потом прочекать оставшиеся на предмет полезности ссылок.