- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
по любому берется вся страница
Может расскажите, как в неполной странице искать нахождение обратной ссылки?
Хотя лучшим на мой взгляд, для этих целей - использование fsockopen из-за таймаута.
Может расскажите, как в неполной странице искать нахождение обратной ссылки?
Хотя лучшим на мой взгляд, для этих целей - использование fsockopen из-за таймаута.
А где гарантия, что в неполной странице будет ваша ссылка? Если вы имеете ввиду отрезание меню, то скрипт будет работать только под один ресурс, кроме того все-равно придется считать весь документ, перед тем, как его резать...
Хотя можено считывать документ построчно, а и ненужное выкдывать, но тогда упадет производительность и оперативка быстро кончится.
Мне кажется, что в любом случае придется считать весь документ целиком. Тем более, вы же картинки не считываете, а только html?
Наличие обратной ссылки лучше проверять через тот же Яндекс, тем более что если Я. ее не проиндексировал, то можно считать, что ее нет.
!kt0, Ваш пример не годится вообще, т.к. он пропускает такие элементарные конструкции как
Так что без регулярных выражений тут не обойтись, хотя бы для того, чтобы вырезать скрипты и комментарии.
!kt0, Так про то я и говорю, что в любом случае перед поиском вхождения каких-либо данных в текст документа, нужно этот документ открыть.
И на данный момент, ничего лучше: fsockopen + рег. выражение я не знаю.
А Уважаемый mustafa, как я понял, знает способ поиска, не открывая документ полностью. Вот я и интересуюсь, что же это такой за способ.
Может я что не знаю. 🙅
не забывайте про preg_replace ("/<noindex>.*<\/noindex>/im","") ну вернее что то типа этого...
Так про то я и говорю, что в любом случае перед поиском вхождения каких-либо данных в текст документа, нужно этот документ открыть.
file($url) считывает построчно считывает документ в массив. Какой смысл в сокетах если это они и есть, только выделены разработчиками в одну функцию? Просто в большинстве случаев оно работает быстрее чем свой аналог.
!kt0, file() - считывает документ в массив. а потом уже из массива, Вы построчно выводите документ.
и у file() нет таймаута, что является большим минусом.
А почему никто не говорит про curl
Никто не пользуется этими функциями?
Mosik, тут обсуждение началось с того, что кому-то надо было проверить существование ссылки. Как я понял - это для каталога или чего-то в таком духе, поэтому применение курл для разовой проверки нецелесообразно. Кроме того, курл все-равно работает на сокетах, просто все это адаптировано для пользователя.
Наличие обратной ссылки лучше проверять через тот же Яндекс, тем более что если Я. ее не проиндексировал, то можно считать, что ее нет.
Так топикстартер и спрашивает :"Нужен php код который определяет наличие моей ссылки на другом сайте, а также проиндексировал ли ее Yandex и Google."