- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Помогите решение задачки. В своё время автоматизировал получение PageRank-а для сайтов посредством протокола SOAP.
Т.е. по крону у меня скрипт бегает и по определённым страницам собирается информация о их PR, из чего строится моя статистика. Как я могу автоматизировать то же самое для Яндекса? Т.е. чтоб скрипт собирал информацию по каждому сайту из моей базы. Есть ли возможность реализации через SOAP, XML? поделитесь информацией, ссылочками.
Парсить HTML - по-моему не выход.
Помогите решение задачки. В своё время автоматизировал получение PageRank-а для сайтов посредством протокола SOAP.
Т.е. по крону у меня скрипт бегает и по определённым страницам собирается информация о их PR, из чего строится моя статистика. Как я могу автоматизировать то же самое для Яндекса? Т.е. чтоб скрипт собирал информацию по каждому сайту из моей базы. Есть ли возможность реализации через SOAP, XML? поделитесь информацией, ссылочками.
Парсить HTML - по-моему не выход.
SOAP конечно надежнее чем парсить HTML
попробуйте задать вопрос яндексу может у него есть решение...
Помогите решение задачки. В своё время автоматизировал получение PageRank-а для сайтов посредством протокола SOAP.
Т.е. по крону у меня скрипт бегает и по определённым страницам собирается информация о их PR, из чего строится моя статистика. Как я могу автоматизировать то же самое для Яндекса? Т.е. чтоб скрипт собирал информацию по каждому сайту из моей базы. Есть ли возможность реализации через SOAP, XML? поделитесь информацией, ссылочками.
Парсить HTML - по-моему не выход.
А чем вас не устраивает семонитор или многочисленные веб-сервисы?
Тем, что из них не получится автоматом заносить данные в базу. Ручками все прийдется делать.
cr0m, я для этого использую скрипт. Который распознает картинку с тИЦ'ем нарисованным. Но для крона вполне сгодится =)
Правда скрипт тормознутый малость =) Секунд по 10-20 на один сайт занимает =)
я для этого использую скрипт. Который распознает картинку с тИЦ'ем нарисованным. Но для крона вполне сгодится =)
Правда скрипт тормознутый малость =) Секунд по 10-20 на один сайт занимает =)
Вот здесь быстрый, вроде бы, скрипт /ru/forum/comment/1175336