- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Также интересен такой вопрос - можно ли как-то для каждого проекта пользоваться отедльным white list'om? Пока не нашел ответа.
можно ли как-то для каждого проекта пользоваться отедльным white list'om?
+1 за добавление в "to do".
2000 он парсит так как максимально количество страниц 100 а на странице по 20 записей
100*20 = 2000
Больше не будет, надо из подкатегорий парсить.
Если кому надо, обращайтесь на мыло optsite[at]yandex.ru
или в асю 285757718. Буду вечером
Сергей
Нет. по другим разделам продолжает.
А тайм-лимит как-то изменить можно? (сорри, далеко не программер).
PS скинул бы на благотворительность несколько вмз, если сделаете из скрипта так, чтоб он сразу по 50 ссылок разбивал. то есть тупо 2 br или еще что-то между каждыми 50...чтоб скопировать 50 и вставить в сапе...А то так заколебаться можно 2000 ссылок по 50 отсекать.
Спасибо.
Скинуть на благотоврительность можете бабушке в метро.
Парсинг выбранной категории Я.Каталога + автозагрузка этих сайтов в white-list sape.ru = 100$
Andrey-k, А зачем грубить, когда предлагаете услугу? Это пиар-ход? я не хотел Вас обидеть
PS скинул бы на благотворительность несколько вмз, если сделаете из скрипта так, чтоб он сразу по 50 ссылок разбивал.
Тогда готов и Жене несколько wmz отдать, Avelon, можешь снять несколько баксиков с моего профиля в сапе, если сделаете.:)
За "несколько баксиков" я даже к компьютеру подходить не буду, а господа из sape просто не почешутся.
Andrey-k, А зачем грубить, когда предлагаете услугу? Это пиар-ход? я не хотел Вас обидеть
Да, это пиар-ход, раз вы другими категориями мыслить не можете.
Во время парсинга при переходе на 2-ю страницу:
Warning: file_get_contents(/yca/tungrp/cat/Employment/Freelance/1.html) [function.file-get-contents]: failed to open stream: No such file or directory in D:\aaa\home\localhost\1\index.php on line 8
где 8-я строка:
while ($data = file_get_contents($url)) {
В пхп я ноль, так что мне это не решить :)
попробуйте эту строку
замените на эту
скрипт вторую страницу ищет у вас на локалке (путь относительный в ссылках)
Ваш вариант не сработал, но идею понял, прописал
$url = ($o2 ? 'http://pda.yaca.yandex.ru/yca/tungrp/cat/'.$cat. $o2[1]:FALSE);
всё заработало. ТНХ!
Поскольку скриптик ещё по таймауту жаловался, выкладываю рабочий вариант полностью
<?
set_time_limit(0);
$cat = 'Business/Production/';
$delay = '7';
$url = 'http://pda.yaca.yandex.ru/yca/tungrp/cat/'.$cat;
$np_pat = '/<a target="_self" href="(.*)"><font color="#333333">след.<\/font><\/a>/U';
$yc_pat = '/<li>\n<font><a.*href="(.*)".*>.*<\/li>/isU';
echo "<ol>";
while ($data = file_get_contents($url)) {
$data = iconv('utf-8', 'cp1251', $data);
preg_match_all($yc_pat, $data, $o1, PREG_SET_ORDER);
foreach ($o1 as $o) echo "<li>".$o[1]; flush();
preg_match($np_pat, $data, $o2);
$url = ($o2 ? 'http://pda.yaca.yandex.ru/yca/tungrp/cat/'.$cat. $o2[1]:FALSE);
sleep($delay);
}
?>