- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
есть серверное решение http://www.studiowebd.ru/servisonline/102-backlinks.html
есть серверное решение http://www.studiowebd.ru/servisonline/102-backlinks.html
И зачем этот спам?
Постучался, попросил ключик. Получил в течение 5 минут.
В общем-то мне программа нужна только как сборщик и чекер проксей. Так вот, программа справляется с этой задачей на отлично - задал пару источников, немного помучал конфигурацию - и вуаля! Теперь в авторежиме могу собирать живые прокси 24 часа в сутки. Я был удивлен, когда оказалось, что программа уже работает так, как я себе нафантазировал :) На все мои каверзные вопросы у автора нашлись более чем исчерпывающие ответы, за что большое спасибо. Осталось сделать сворачивание в трей и можно назначать цену ;)
На сайте программы CheckParams появилась автоматическая выдача бесплатных 30-дневных лицензий для новых пользователей.
Так же значительно обновилась сама программа. Появилась возможность добавлять свои кнопки в UI программы, улучшена работа с прокси, теперь программу можно свернуть в трей около часов, исправлены ошибки и очень серьёзно улучшилась поддержка скриптов :)
http://checkparams.com/
Появилась возможность проверять следующие параметры SEOmoz через бесплатный API:
Subdomain mozRank
Domain Authority
External Links
Links
mozRank
Page Authority
HTTP Status Code
Title
Доступны еще и некоторые другие параметры :)
Спасибо пользователю gasyoun :)
CheckParams + SEOmoz API
Коллеги, для CheckParams доступен модуль массовой проверки Whois, который позволяет "вытаскивать" данные по владельцу домена для ряда популярных зон.
Информацию о других доступным модулях смотрите на http://checkparams.com/scripting
На все вопросы по модулям могу ответить по icq (номер указан на странице).
В общем, по итогам сегодняшнего общения с автором программы, хочу оставить еще один отзыв.
Программа, которую пишет уважаемый автор, способна покрыть 99,9% потребностей современного SEO-рынка. Да, она сложна в освоении и использовании, но если ее грамотно настроить (а возможности настройки просто колоссальные, да и автор очень общителен и вежлив) - вопрос о покупке всяких недосеопарсеров можно закрыть навсегда.
Сейчас я уже перекладываю часть функций одной из своих программ (для внутреннего использования) на CheckParams, будучи при этом уверенным в качестве работы этой программы. Чуть позже, возможно, на CheckParams будет переложена часть функций моей публичной программы Amazing Niche Finder.
Так что желаю автору успешного развития его программы, а пользователям рекомендую не лениться и поглубже вникать в настройки и особенности CheckParams - поверьте, с ее помощью можно реализовать практически всё, что придет в голову современному сеошнику.
Всем привет.
Для CheckParams доступен модуль скачивания сайта(ов) из веб-архива (web.archive.org). Данные скачиваются из новой версии веб-архива, поддерживается одновременное скачивание нескольких сайтов, результаты сохраняются на диск (картинки, стили и т.д.) и в базу данных MySQL (сам контент).
Сайты скачиваются полностью (т.е. весь имеющийся период), все страницы "очищаются" от меток веб-архива, ссылочная целостность сохраняется. Возможна дополнительная "очистка" полученных страниц сайта - например, удаление дубликатов страниц, то есть в базе данных останутся только уникальные страницы сайта.
Скачивание является многопоточным, вот пример статистики запросов для одного сайта (время работы ~1.5 часа):
WA grabber: Checks: 399151, successful: 357940, failed: 31805, bans: 0, free proxies: 246, blocked proxies: 1547, using now: 0
Контактная информация - http://checkparams.com/scripting
Всем привет.
Для CheckParams доступен модуль скачивания сайта(ов) из веб-архива (web.archive.org).http://checkparams.com/scripting
Вообще уникальная прога :) Я с пол года назад покупал скрипт для выдирания сайтов из вебархива такое Г... я вам скажу, у этой проги такой модуль пока не пробовал но обязательно, эх если б ее еще и посуду мыть как то запрограмировать :)
Пробив на индексацию страниц в яндексе - отдельная песня, все биржи ссылок точнне оптимизатроы только этим и занимаются, причем решений для быстрой работы (относительно бесплатных) нет. Чекают плагином винка или подобными инструментам, чекать надо регулярно а не только при покупке, но все доступное работает медленно ставишь на ночь, ночью ка на зло ап кеш забит данными в общем полная задница, можно быстро и платно через сервисы типа сеобюджета но это за денежку :) так что довести до ума пробив на индексацию страниц через прокси думаю потенциально оправданно.
эх если б ее еще и посуду мыть как то запрограмировать
Уверен, она это уже умеет. По крайней мере, на все мои вопросы типа "а как", автор всегда отвечает "легко". Я уже не спрашиваю, "а можно ли", я уже спрашиваю только "а как".