- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ув. вебмастера. Дошли руки до старого сайта сделанного по Веб 2.0 Но немного криво. В комментариях просочилась куча невидмого спама ( исход. ссылки через точки, смайлы, запятые и пр.) Надо все это почистить.
Подскажите, пожалуйста легкую софтину для поиска только исходящих ссылок по всему сайту. Так, как это к примеру делает бот сапы... Спасибо.
Если база в мускуле, то проще и быстрее будет в базе прочекать/удалить. Что-то типа
DELETE FROM table_name WHERE comments_text LIKE "%htttp://%"
Добавляйте в сапу, их бот класно с этой задачей справится :)
Добавляйте в сапу, их бот класно с этой задачей справится :)
Согласен, удобно, но большой минус в том, там только УВ 3 бьется((( Вот если бы подобный скриптик...
Konstantin12 добавил 23.07.2009 в 20:49
Если база в мускуле, то проще и быстрее будет в базе прочекать/удалить. Что-то типа
DELETE FROM table_name WHERE comments_text LIKE "%htttp://%"
Проблема в том, что там есть и полезные ссылки...
ну что может кто напишет робота который просканирует сайт, а потом на ссылки ?
Или я что-то не понимаю или одно из двух :)
Ведь есть же масса софта, проверяющего все линки сайта на валидность.
Как правило все эти программы дают отчет о линках (в тч и внешних).
Кроме того, есть онлайн сервисы делающие тоже самое. (Сейчас не вспомню, но встречал)
А если как-то сервис не может проверить ВСЕ страницы - ну скормите ему карту (как вариант по-уровневую)..
Из софта у меня вот завалялись: древний-древний CHECKWEB (ещё 1998г ;) ), REL Link Checker и какой-то linkscan.
Уж не помню точно каким именно из них я проверял линки и получал отчёты.
Пока писал - поискал (всё-таки полезный файл descript.ion и правильная качалка ;) ).
REL Link Checker теперь оказывается Web Link Validator, а linkscan тоже живет.
UPD.
xenulink вот еще вроде то..
Проблема в том, что там есть и полезные ссылки...
Konstantin12, ИМХО через БД всеравно будет быстрей всего.
Тем более, что сначала можно удалить комментарии содержащие
и тому подобную фигню.А потом прочекать оставшиеся на предмет полезности ссылок.