- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Вышла новая версия. В ней улучшена работа с проверкой убитых ссылок. Теперь можно самостоятельно решить, какие коды ответов сервера считать убитыми ссылками. Так же можно отфильтровать редиректы, forbidden и пр. коды.
Наконец-то актуализирован help.
За апдейтами обращайтесь на почту.
Покупка теперь стоит $10, зато можно получить подарки...
aldic, как реализована проверка на забаненность в яндексе?
Вот так:
function IsBan($url)
{
$result = false;
$yaca = "http://www.yandex.ru/yandsearch?serverurl=";
$url = GetFullHost($url);
$url2 = $yaca.$url;
$page = "";
$page = @file_get_contents($url2);
// found answer & result = 0
if (preg_match("/<title>.*?\(\s*(\d+)\)/i", $page, $regs))
{
if ($regs[1] == "0")
$result = true;
}
return $result;
}
Тут встроена и защита от блока яндекса, если что...
Теперь можно получить утилиту бесплатно при покупке лицензии на сабмитер через нашу партнерку. Получаете сразу обе программы по одной цене + базы в подарок.
Алгоритм проверки белости каталога. На данный момент по соотношению <качетсво определения/разумная скорость> самый лучший, что придумали. Предлагаем на обсуждение и если будет перспектива, можно встроить в утилиту.
----
Процесс состоит из двух этапов.
1. Проверить прямые ли ссылки (достаточно просто)
2. Проверить требуются ли обратки
Первое, как уже написал, сравнительно не сложно определяется парсингом, главное точно нацелиться на нижний уровень, а не попасть в рубрикатор. Проблема больше техническая.
Второе сложнее, т.к. тут вообще с виду не подобраться. Решение:
Берем выборочно пару (число уточняется) ссылок из каталога из разных разделов и идем на эти сайты. Если на них нет ответных ссылок, значит велика вероятность, что каталог белый.
Проблемы:
а) страниц на сайте много и ссылки можно искать оч. долго. Нужно определить вероятность и выбрать наиболее важные участки поиска, на основании которого сделать с определ. вероятностью вывод, что ссыолк не найдено.
б) Сайт может быть недавно в каталоге и ссылок обратных еще не поставить. ли не поставил вообще, но в каталоге недавно и можеры его еще не удалили. Или в каталоге давно, но ссылки грохнул и еще не удален. В общем, есть опр. вероятность, но не большая.
Пункт а решается так же парсингом ответа Я. на предмет ссылающихся страниц.
В общем, если подойти с правильного бока, алгоритм вырисовывается. Требуется обсуждение и ваше мнение...
Алгоритм проверки белости каталога. На данный момент по соотношению <качетсво определения/разумная скорость> самый лучший, что придумали. Предлагаем на обсуждение и если будет перспектива, можно встроить в утилиту.
----
Процесс состоит из двух этапов.
1. Проверить прямые ли ссылки (достаточно просто)
2. Проверить требуются ли обратки
Первое, как уже написал, сравнительно не сложно определяется парсингом, главное точно нацелиться на нижний уровень, а не попасть в рубрикатор. Проблема больше техническая.
Второе сложнее, т.к. тут вообще с виду не подобраться. Решение:
Берем выборочно пару (число уточняется) ссылок из каталога из разных разделов и идем на эти сайты. Если на них нет ответных ссылок, значит велика вероятность, что каталог белый.
Проблемы:
а) страниц на сайте много и ссылки можно искать оч. долго. Нужно определить вероятность и выбрать наиболее важные участки поиска, на основании которого сделать с определ. вероятностью вывод, что ссыолк не найдено.
б) Сайт может быть недавно в каталоге и ссылок обратных еще не поставить. ли не поставил вообще, но в каталоге недавно и можеры его еще не удалили. Или в каталоге давно, но ссылки грохнул и еще не удален. В общем, есть опр. вероятность, но не большая.
Пункт а решается так же парсингом ответа Я. на предмет ссылающихся страниц.
В общем, если подойти с правильного бока, алгоритм вырисовывается. Требуется обсуждение и ваше мнение...
Я не программер, поэтому по-существу вопроса сказать могу мало, единственно что, это алгоритм проверки обраток очень сложно составить ибо есть каталоги, которые ставят ссылки сначала страницы, есть которые с конца, и те и другие будут не проиндексированы это понятно, если только брать из середины (то есть в каталоге 10 страниц, то можно парсить ссылки с 5-ой к примеру), но тут хзагвоздка другого рода, очень часто наблюдал, что ссылки с этих внутренних запрятанных страниц плохо индексируются Яндексом, но если после парсинга проверить вручную, то, наверное, реализовать такое можно, но как технически подойти к этому я не представляю и сколько ресурсов может занять такая проверка
Если такой алгоритм будет написан и будет работать, уйду в отпуск, сразу 🚬
promosite, вот пока основная проблема развернуть алгоритм так, чтобы проверка хотя бы 100 каталогов была бы приемлемой по времени. Пока ползаем по каталогам и смотрим движки - какие есть варианты реализации страниц ссылок в них. Ну и попутно решили поспрашивать может кто какую идейку подкинет :-)
За хорошие (разумные, полезные, интересные и пр.) идеи программку вышлем бесплатно... :)
Пункт а решается так же парсингом ответа Я. на предмет ссылающихся страниц.
Чтобы меньше парсить, надо в качестве "области поиска" задавать сайт на котором ищем страницы ссылающиеся на каталог. Тогда можно просто анализировать строку:
Результат поиска: страниц — 1
Область поиска: сайт — www.site.ru
А идея проверять через Яндекс очень хороша. Можно так же гугл использовать... только движок утилиты надо будет изменить, т.к. работать всеравно долше будет...
aldic,
проверить сами каталоги нереально...
лучше проверить через какой либо поисковик