- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ребята, поделитесь куском кода проверки обратной ссылки c учетом всего что стоит учесть.
Не хочу изобретать велосипед, хоть и начал все же программить вдруг никто не откликнется. :)
Спасибо.
Вообще, я так понимаю, что качественные куски этого кода - это ноу-хау. В том числе и список того, что надо учесть. Примитивные проверки, конечно, могут и выложить, но я бы наверное вложился временем/деньгами в самостоятельное написание этой фичи.
http://www.htmlweb.ru/php/example/preg.php
там посмотрите Парсер всех внешних и внутренних ссылок со страницы
доработайте по вкусу =)
А что тут такого ноухау.
Одна функция проверяет на внешние ссылки, колво и с учетом комментов и скриптов.
Вторая функция анализирует роботс
И тд.
Turtle_Fly, спасибо. Есть что интересное.
Могу выложить свой кусок кода который успел наваять если кому-то надо :)
функция рабочая get_file, остальное набросал в общих чертах. но должно работать- не испытывал
логгика такая:
1. по адресу где находится ваша ссылка восстанавливаем путь до robots.txt
2. скачиваем роботс
3. анализируем роботс (не писал как- сами
4. скачиваем содержимое страницы
5. вырезаем то что (возможно) наход. между ноидекс+ скрипты
6. считаем внешние ссылки (если надо)
7. ищем свою ссылку
п.с. (пришла мысля что и там могут разместить) можно сразу вырезать то что идет до <body> и после </body>
Спасибо. Так же где-то и у меня только я еще учитываю вот это
$s = preg_replace ("/.*<body>/si", "", $s);$s = preg_replace ("/<\/body>.*/si", "", $s);
Miracle добавил 18.12.2008 в 23:53
Кстати, с роботс тоже не доконца продумал что делать. Да и думается мне еще есть тонкости, а тут только то что я описал в требованиях :), кстати, ссылка может быть в комментах <!-- -->
точно
еще можно внутрь тага запихнуть
<img src='xml.gif' alt='<a href="index.php">sdd</a>'>
мож. кому тему попалил? ;)
zhidronsss добавил 19.12.2008 в 00:27
вдогонку и сегодня напоследок:
<textarea>(.*?)</textarea>
☝
Вот я и говорю, может кто поделится "куском" что бы не придумывать и не додумывать свой велосипед :)
вчера кидал на Perl, если интересно - поищите где-то в соседней теме лежит
$p01nt, ты про это /ru/forum/297482 ?
еслли да ,то не смеши людей
вчера кидал на Perl, если интересно - поищите где-то в соседней теме лежит
Спасибо., но вынаверное не уловили доконца сути вопроса. Интересуют именно тонкости.
Минусователю анонимному как всегда в одно место флажек :), если задание для студента пусть естли не выложит код то хоть расскажет о тонкостях которые могут быть.