- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Зравствуйте!
Мне нужно сделать маленький скрипт который будет проверять наличие сылки на странице. Например есть адрес страницы и текст и полный код ссылки, нужно проверить есть ли она на странице. Я пробовал делать так
$f = fopen($url,"w");
дальше у меня не получаеться прочитать страницу
$str = fread($f,???); не знаю как указать размер файла через filesize не молучается.
и тут необходимо сделать поиск текста в тексте и в случае нахождения делать какое либо действие.
fclose($f);
Помогите пожалуста!
lebron,
загоняй содержание файла в строку
например $file=join('',file('http://wwwww'));
а дальше с помощью регулярок или строковых фуункций проверяй наличие того, что тебя интересует.
а можно подробней, что делае функция join, чтобы получить содержание файла мне его сначал нужно прочитать, а я не могу так как не могу узнать его размер а функция filesize работает только с локальными файлами
lebron,
не уверен, что понял правильно, но попробовать
file_get_contents
и дальше как сказал robust...
юзайте file_get_contents и не будет проблем :)
Ни в коем случае не надо использовать файловые функции типа fopen, file_get_contents, file и т.д., это ужасно.... по многим причинам.
Идеально - curl, если этой либы не стоит (у всех нормальных хостеров она стоит), тогда fsockopen и далее по тексту.
И к fsockopen и к curl есть в мане примеры для чтения урлов удаленных.
Ни в коем случае не надо использовать файловые функции типа fopen, file_get_contents, file и т.д., это ужасно.... по многим причинам.
А что это за причины?
А что это за причины?
Первая и главная - не надо забивать шурупы молотком:) Файловые функции надо оставить для работы с файлами, а для работы с урлами использовать урловые. Это логично как бы.
А так... Урловые функции быстрее, урловые функции не подвесят сервер если сайт на который идет запрос не отвечает (было такое), урловые функции не зависят от настроек allow_url_fopen (который хостер иногда принудительно запрещает), урловые функции таки содержат настройки для работы с урлами (иногда для грабления надо посылать заголовки специфичные, или по тайм-ауту отрубаться и т.д. и т.п.), с урловыми функциями Вы не будете удивлятся почему у Вас "while (!feof($handle)) {" не докачивает файл хотя "это же так в мануале" (тоже из практики), можно было еще чего-нибудь вспомнить, но имхо достаточно.
Главный аргумент все-таки первый. Для урлов надо пользоваться инструментом предназначенным для урлов, а не надстройкой костылями над функциями файловой системы. А учитывая что урловые функции ничуть не сложнее файловых в применении (разве нет?)... так "зачем же?" (с)
Первая и главная - не надо забивать шурупы молотком:) Файловые функции надо оставить для работы с файлами, а для работы с урлами использовать урловые. Это логично как бы.
А так... Урловые функции быстрее, урловые функции не подвесят сервер если сайт на который идет запрос не отвечает (было такое), урловые функции не зависят от настроек allow_url_fopen (который хостер иногда принудительно запрещает), урловые функции таки содержат настройки для работы с урлами (иногда для грабления надо посылать заголовки специфичные, или по тайм-ауту отрубаться и т.д. и т.п.), с урловыми функциями Вы не будете удивлятся почему у Вас "while (!feof($handle)) {" не докачивает файл хотя "это же так в мануале" (тоже из практики), можно было еще чего-нибудь вспомнить, но имхо достаточно.
Главный аргумент все-таки первый. Для урлов надо пользоваться инструментом предназначенным для урлов, а не надстройкой костылями над функциями файловой системы. А учитывая что урловые функции ничуть не сложнее файловых в применении (разве нет?)... так "зачем же?" (с)
ну про "подвесить" вы перегнули палочку, а вот про curl можно и им, но конечно curl правильнее пользовать ... :)
ну про "подвесить" вы перегнули палочку...,
В том то и дело что нет:( Один раз работали когда - у человека ВДС падал раз в час, выяснилось что граббер пытавшийся брать инфу через file_get_contents ронял вдс когда удаленный хост был недоступен (не разбирались почему именно - из-за неответа или днс). Допускаем, конечно, что проблема была в версии пхп или еще чем-то, но смена механизма на curl помогла.
По поводу поиска по тексту - если надо искать точную простую последовательность, то stristr. Если что-то более сложное - preg_match.
По поводу поиска по тексту - если надо искать точную простую последовательность, то stristr. Если что-то более сложное - preg_match.
И при этом постоянно помним, что мы можем найти интересующий нас УРЛ
на странице, но он может НЕ быть ссылкой...
На 100% отловить ссылку достаточно муторно :(