nickspring

nickspring
Рейтинг
228
Регистрация
29.03.2006
Должность
seo
Андрюха:
Уважаемые разработчики Yazzle, было бы очень удобно если бы реализовали возможность парсинга мета-тегов в сервисе - пакетное определение показателей.
Нужно для того, что есть допустим список url(ов) продвигаемых страниц, скопипастили в сервис, запустили и получили мета данные.

Сейчас возможность снятие мета данных возможна только в сервисе - "карта сайта".
Сможете реализовать такую возможность?

Попробуем изучить этот вопрос. Спасибо.

New Member:
Решил спустя это долгое время как с вами тут выясняли проблемы, зайти опять и посмотреть, сделали ли эту программу хотя бы на 5% от её стоимости нужной.
Предложили обнову, скачал и установил. Зашел проверить индексацию страниц доноров в гугле, 4000 ссылок проверяло около 8-9 часов. Нашло 80 ссылок не в индексе гугла, из них примерно 25 таки находятся в индексе, гугла, то бишь из-за кривой программы чуть не снял рабочие ссылки.

Надеюсь Вы в саппорт написали, а то иначе выглядет как пустое сотрясение воздуха, особенно 4000 за 8-9 часов. В том числе ссылки, давайте конкретно это написало, это неправильно. Хотя бы в сапппорт, но можно и тут.

Зачем вообще два WMID? Даже для разных видов деятельности имхо избыточно это и неудобно (вдруг нужно будет между кошельками перекинуть средства,*что платить комиссию за перевод самому себе?)

datot:
Это новый тип загона сайтов в Яндекс.Вебмастер
Как-нибудь так, без этого Г обойдемся :)
Но шума будет много, для держателей программ разного характера :).

Программам имхо будет лучше только. У многих лимиты поднялись и на уровне того, что ежедневно и требуется (я не о промышленных масштабах - там программы десктопные никогда и не рулили). У меня лимит вырос и значительно.

Gnev88:
nickspring
У вас отличная программа, но юзабилити и дизайн делают программисты, а не те кто должен отвечать за удобность инструмента и его правильное отображение результата, пожалуйста отдайте его специалистам кто проектирует интерфейсы, будет сказка, а не продукт четвертый год пользуюсь и приобрел из за доверия и CS Sape Master так же, там тоже мелкие косяки и если бы сделать немного автоматизацию то и сапоский интерфейс ненужен был бы вообще заходить.

Такого специалиста еще найти нужно :)

Gnev88:
При проверки на уникальность всего сайта, выдается статистика по 1 странице, а не сразу список из страниц, инструмент сделан, но как всегда он на уровне 90-ых неудобно и никак не использовать, научитесь делать сразу правильно, требуется готовый список со всеми страницами рядом с которыми будет % уникальности стоять, выгрузка тоже нужна сразу всех страниц, а не 2000 штук по 1 выгружать или просматривать, визуальная часть в вашей программе на уровне сделали и ладно прогеры, юзабилити слабое.

Доработаем, не переживайте :)

---------- Добавлено 16.04.2013 в 23:41 ----------

Андрюха:
Уважаемые разработчики программы, очень хотелось бы, что бы на страницах результатов того или иного сервиса (например релевантные страницы или проиндексированные) была возможность сразу открыть этот файл в экселе (что бы сразу не сохранять на жесткий диск) или скопировать в буфер обмена.

Часто приходиться пользоваться сервисами программы и как правило приходиться копипастить рез-ты в какие-нибудь сводные таблицы и отчеты. Было бы ооочень удобно, если бы Вы реализовали такую штуку :)

Во многих таблицах есть контекстное меню "Скопировать выделенное в буфер", но оно работает не так, как нужно. Доработаем.

Shaltick:
Спасибо, лицензия Язла у меня есть но она не стабильно работает и не все беки снимает! :-(

---------- Добавлено 14.04.2013 в 00:27 ----------

Меня интересует именно запрос

Все там стабильно работает. Как раз перечисленные поисковики. Другое дело, что некоторые из них для получения бОльших объемов,*требуют оплаты.

Так что, как бы снимает ВСЕ беки, которые ОТДАЮТ перечисленные источники.

P.S. Для 100+ сайтов в день и своей аналитики, имхо, лучше написать скрипт, который будет брать данные хотя бы с OpenSiteExplorer и делать с ними то, что Вам нужно.

Anton111:
Все равно не понятно :) Нужно сразу писать.

Кстати в проге глюк, при проверки сайта x-hacker.ru/Хакерство-РІ-Интернете/Page-3.html

он разбивает его на два сайта, и мне вот сбил файл, пришлось искать из 800 строк баг оказался на 176 строке :)

что за адрес? Это даже не юникод :)

Tortemon:
Приветствую ув. Форумчане, существует ли в природе такая программа, которая анализирует веб-сайты в промышленном масштабе?

Есть куча доменов, и их надо проанализировать по таким параметрам, как: Whois (полная информация, от ns до контактов администратора). Все показатели яндекса, гугла, рамблера, майла, бинга, яху. Наличие сайта в каталогах и плюс информация о бэклинках по данным сервисов (соломоно, opensiteexplorer, majesticseo и т.д). Желательно с возможностью экспорта в xml или xls и возможностью поиска уже в базе отсканенных сайтов по определенным параметрам.

Буду признателен.

Добрый день!

В промышленных масштабах только сервисы. Посмотрите наш инструмент http://seobudget.ru/tools/params/ . Наверняка, там не все, что требуется. Но мы готовы дорабатывать его по требованию.

Язл может, в быстром анализе топа. Чего не будет хватать там - пишите,*доточим.

Всего: 3578