Напомните, пожалуйста, откуда можно скачать обновленную версию скрипта. Ранее качал с http://euroflat.odessa.ua_ по своему паролю, но сейчас что-то не поднимается домен...
При использовании Яндекс XML мне не вполне ясно как верно забить данные в программу.
Допустим логин в Яндекс XML - sdempurg1 и ключ 03.126660304:3889a9fdcb9b6a0f413b5a1с147828cb
Вбиваю все так:
sdempurg1;03.126660304:3889a9fdcb9b6a0f413b5a1с147828cb
Однако в статистике Яндекс XML я вижу, что запросы от программы в статистику не попадают..., т.е что-то не верно. Что?
Отписался разработчикам, а в ответ тишина... Похоже программу сильно не поддерживают. Жаль, сделали бы платный вариант, может быть бы отвечали иногда...
Я так понял, что платные тарифы больше нацелены на людей у которых много сайтов и соответственно много ссылок, которые нужно вгонять. Поэтому ограничение в 300 url для них критично.
На бесплатном тарифе есть порядка 25 серверов.
Этого достаточно для влета в индекс нормальных URL?
☝
А еще можно сделать свой on-line сервис на базе SiteControl
!HELP!
Случайно рубанул все сайты из базы. Ступил. Хотел удалить один и не заметил, что выбраны все.
Зашел php-myadmin в базу - вроде данные есть.
Может можно где-то флаг поменять с удален на жив? Есть варианты как восстановить?
Копию базы делал давно и с тех пор многое менял. Жаль времени.
akigleo добавил 07-09-2011 в 11:39
К счастью, с удалением - ложная тревога. Просто лег SQL сервер у провайдера, но случилось все одновременно с моим удалением одного сайта. Поэтому я и решил, что сдуру снес все.
Особая благодарность разработчику, который отозвался и был готов оказать помощь в возникшей проблеме.
И еще вдогонку по проверке модуля Position по cron. Желательно дать возможность пользователю самому определять логику последовательности проверки.
То есть в дополнение к существующему сейчас последовательному алгоритму проверки добавить еще условно говоря алгоритм с памятью проверок, чтобы пользователь сам решал какой ему лучше для конкретных задач.
Пример 1, сейчас (как установлено экспериментальным путем) берутся сайты последовательно и при каждом следующем запуске обновления по cron проводится проверка позиций по одному сайту. Причем, если допустимое время отработки скрипта на хостинге небольшое и какой-то сайт имеет много запросов, то происходит затык. Скрипт может долго и упорно пилить один и тот же сайт и каждый запуск не доходить до конца тестирования и при следующем запуске начинать его пилить сначала. Разумеется все следующие сайты проверены не будут, поскольку он не успевает отработать предыдущий сайт.
Хорошо бы как-то память проверок прикрутить, чтобы скрипт подхватывал проверку с точки где он в прошлый раз не закончил, а не начинал все сначала.
Пример 2, пусть сайтов много. Условно говоря 100. Допустим cron запускается 1 раз в час по 2 сайта. Тогда за день проверится с 1- 48 сайтов. Сейчас реализовано так, что на следующий день проверка начнется опять с первого, а позиции сайтов 49 -100 проверены не будут. Опять же предложение добавить скрипту память, чтобы он начинал отрабатывать то, что не закончил, а не сначала.
Радует, что проект развивается. Не забудьте так же мануал обновить, чтобы понимать смысл нововведений и возможностей, которые без описания.
P.S. По ссылкам из YWebmaster. Вопрос в будущей версии решится или как?
И еще доп. пожелание к будущей версии.
Усильте графики. Неплохо бы дать пользователю возможность выводить по оси абсцисс произвольный интервал дат, а по оси ординат доп. параметры. Например, число упоминаний Yandex, ссылок Yahoo и т.п.
Скрипт отличный. Большинство важных функций работает и довольно устойчиво.
Хотя есть к сожалению и не работающие функции.
Например,
- в модуле Position позиции в Рамблере не определяются.
- в модуле Control обратные ссылки из Яндекс вебмастер и Yahoo не отображаются.
- Экспорт в csv у меня не работает. У кого-то работает?
Некоторые моменты вообще нигде не описаны и приходится догадываться что это. Попытка получить ответ от support успеха не имела. Вероятно последний на отдыхе.
Хотя, повторюсь, скрипт очень хороший.
У меня с новой версией результат тот же - постоянный ввод капчи. В настройках указано прямое соединение, IP постоянный и занесен в Yandex XML (НА 1000 ЗАПРОСОВ).
И что интересно, программа Etxt Антиплагиат 2.0. работает, а в статистике Yandex XML число использованных запросов не растет. Пару минут работы и привет капча. Почему так?
Другие SEO программы натравливаю на тот же аккаунт Yandex XML - проблем нет. При их работе статистика меняется и видно, что Яндекс учитывает поступившие от них запросы.
Может стоит прикрутить к Etxt Антиплагиат поле для ввода рекомендуемого Yandex XML адреса для отправки запросов?
Попробовал. Выдает ошибку при запуске:
Hacтpoйки пpoгpaммы были cбpoшeны пo yмoлчaнию, пpoизoшлa oшибкa: Could not find a part of the path 'C:\Documents and Settings\Admin\Moи дoкyмeнты\Inet-trade\override_settings_2.0.25.0'.
и потом еще
Пpoизoшлa oшибкa пpи инициaлизaции пpoгpaммы: Could not find a part of the path 'C:\Documents and Settings\Admin\Moи дoкyмeнты\Inet-trade\trace_yandex.log'.
После чего запускается и танцы с бубном из-за капчи продолжаются 😒