- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Зравствуйте!
Мне нужно сделать маленький скрипт который будет проверять наличие сылки на странице. Например есть адрес страницы и текст и полный код ссылки, нужно проверить есть ли она на странице. Я пробовал делать так
$f = fopen($url,"w");
дальше у меня не получаеться прочитать страницу
$str = fread($f,???); не знаю как указать размер файла через filesize не молучается.
и тут необходимо сделать поиск текста в тексте и в случае нахождения делать какое либо действие.
fclose($f);
Помогите пожалуста!
lebron,
загоняй содержание файла в строку
например $file=join('',file('http://wwwww'));
а дальше с помощью регулярок или строковых фуункций проверяй наличие того, что тебя интересует.
а можно подробней, что делае функция join, чтобы получить содержание файла мне его сначал нужно прочитать, а я не могу так как не могу узнать его размер а функция filesize работает только с локальными файлами
lebron,
не уверен, что понял правильно, но попробовать
file_get_contents
и дальше как сказал robust...
юзайте file_get_contents и не будет проблем :)
Ни в коем случае не надо использовать файловые функции типа fopen, file_get_contents, file и т.д., это ужасно.... по многим причинам.
Идеально - curl, если этой либы не стоит (у всех нормальных хостеров она стоит), тогда fsockopen и далее по тексту.
И к fsockopen и к curl есть в мане примеры для чтения урлов удаленных.
Ни в коем случае не надо использовать файловые функции типа fopen, file_get_contents, file и т.д., это ужасно.... по многим причинам.
А что это за причины?
А что это за причины?
Первая и главная - не надо забивать шурупы молотком:) Файловые функции надо оставить для работы с файлами, а для работы с урлами использовать урловые. Это логично как бы.
А так... Урловые функции быстрее, урловые функции не подвесят сервер если сайт на который идет запрос не отвечает (было такое), урловые функции не зависят от настроек allow_url_fopen (который хостер иногда принудительно запрещает), урловые функции таки содержат настройки для работы с урлами (иногда для грабления надо посылать заголовки специфичные, или по тайм-ауту отрубаться и т.д. и т.п.), с урловыми функциями Вы не будете удивлятся почему у Вас "while (!feof($handle)) {" не докачивает файл хотя "это же так в мануале" (тоже из практики), можно было еще чего-нибудь вспомнить, но имхо достаточно.
Главный аргумент все-таки первый. Для урлов надо пользоваться инструментом предназначенным для урлов, а не надстройкой костылями над функциями файловой системы. А учитывая что урловые функции ничуть не сложнее файловых в применении (разве нет?)... так "зачем же?" (с)
Первая и главная - не надо забивать шурупы молотком:) Файловые функции надо оставить для работы с файлами, а для работы с урлами использовать урловые. Это логично как бы.
А так... Урловые функции быстрее, урловые функции не подвесят сервер если сайт на который идет запрос не отвечает (было такое), урловые функции не зависят от настроек allow_url_fopen (который хостер иногда принудительно запрещает), урловые функции таки содержат настройки для работы с урлами (иногда для грабления надо посылать заголовки специфичные, или по тайм-ауту отрубаться и т.д. и т.п.), с урловыми функциями Вы не будете удивлятся почему у Вас "while (!feof($handle)) {" не докачивает файл хотя "это же так в мануале" (тоже из практики), можно было еще чего-нибудь вспомнить, но имхо достаточно.
Главный аргумент все-таки первый. Для урлов надо пользоваться инструментом предназначенным для урлов, а не надстройкой костылями над функциями файловой системы. А учитывая что урловые функции ничуть не сложнее файловых в применении (разве нет?)... так "зачем же?" (с)
ну про "подвесить" вы перегнули палочку, а вот про curl можно и им, но конечно curl правильнее пользовать ... :)
ну про "подвесить" вы перегнули палочку...,
В том то и дело что нет:( Один раз работали когда - у человека ВДС падал раз в час, выяснилось что граббер пытавшийся брать инфу через file_get_contents ронял вдс когда удаленный хост был недоступен (не разбирались почему именно - из-за неответа или днс). Допускаем, конечно, что проблема была в версии пхп или еще чем-то, но смена механизма на curl помогла.
По поводу поиска по тексту - если надо искать точную простую последовательность, то stristr. Если что-то более сложное - preg_match.
По поводу поиска по тексту - если надо искать точную простую последовательность, то stristr. Если что-то более сложное - preg_match.
И при этом постоянно помним, что мы можем найти интересующий нас УРЛ
на странице, но он может НЕ быть ссылкой...
На 100% отловить ссылку достаточно муторно :(