- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
не парсит ключевики.... :( вроде все правильно скопировал.. сайты посредством faind нашлись с открытой статистикой - а вот парсить скрипт отказывается напроч... выдает пустую страницу после начажия кнопки запустить (по истечению тайм аута)
В скрипте исползуется опция followlocation, на некоторых вдс (например firstvds) и хостингах он на доступна.
Fatal error: Call to undefined function: curl_init() in /home/far/c/u/c/site.ru/public_html/functions.php on line 6
Такую ошибку выдает на фришнике 😒 Подскажите в чем дело?
Fatal error: Call to undefined function: curl_init() in /home/far/c/u/c/site.ru/public_html/functions.php on line 6
Такую ошибку выдает на фришнике 😒 Подскажите в чем дело?
curl на хостинге отключен
В скрипте исползуется опция followlocation, на некоторых вдс (например firstvds) и хостингах он на доступна.
а если пытаюсь поставить на денвер где эта функция включается?
PS curl включен
Как нибудь можно настроить на парсинг запароленных акков, если пароль известен? не подскажете?
именно что extension=php_curl.dll в php.ini раскоментирована....
fhuuz а чем мешает на время парсинга поставить общедоступность если пароль известен? потом закончив закрыть обратно....
именно что extension=php_curl.dll в php.ini раскоментирована....
fhuuz а чем мешает на время парсинга поставить общедоступность если пароль известен? потом закончив закрыть обратно....
Вот здесь взгляните, возможно поможет разобраться
CURL
PS Насчет пароля здравая мысль...
Вторая версия не совсем удобная. Во-первых, не спарсились сайты с открытой статой, хотя возможно просто по моему кею их и не было. Во-вторых, в первой версии было более удобно в один шаг, просто указал кей, а скрипт сам ищет сайты с открытой статой и выдает результат.
Кстати, в первой версии скрипта иногда при парсинге кеев скрипт выдает эту ошибку
но продолжает работать, просто сразу перескакивает на 15-ю или 20-ю страницу кеев.
Вторая версия не совсем удобная. Во-первых, не спарсились сайты с открытой статой, хотя возможно просто по моему кею их и не было.
Тот парсер который Вы имеете ввиду - мод от lord_alfred (если его можно назвать модом, переписано им там было много). Я чесно говоря не хочу его ковырять =) Судя по приведенной ошибке там игнора не хватает.
В этой версии открытые статистики ищутся в Яндексе (далеко не все сайты с открытой статистикой участвуют в рейтинге Ливера), там внизу, под полем для ввода кеев, есть количество страниц для парсинга (по умолчанию 1 страница), попробуйте поставить 3-5 страниц. Парсить можно не по одному кею, а по нескольким кеям одной тематики(каждый новый кей с новой строки).
Кстати, раньше при парсинге кеев использовался буфер для спаршеных кеев и запись из буфера в файл, осуществлялась только после того как были спаршены все кеи. Если кому при парсинге статистик с большим количеством кеев это доставляет неудобства (падает инет, долго ждать и т.д.), можете пользоваться этой версией. Это последняя версия с записью кеев в файл "на лету". То есть то, что было спаршено сразу пишется в файл.
Несколько позже, думаю добавить пару полезных фишек - проверка количества страниц с кеями до начала парсинга (чтобы не получилось так, что запустили парсить пару-тройку стат с несколькими тысячами кеев и сиди, гадай когда все это добро спарсится). И вторая - работа с файлами из окна (не всегда удобно лезть по фтп, чтобы подправить список для парсинга).