Программа SMILE SEO Tools - автоматическая и ручная регистрация в каталогах. Том 2.

[Удален]
#21

saman спасибо тебе огромное!

Скажи писать inurl:add.php или add.php ?

Ice_sCream
На сайте с 23.06.2005
Offline
116
#22

Ришат, это ведь не тема по изучению синтаксиса запросов Google.

p.s. Ответ: inurl:add.php.

passing the acid test
cheboor
На сайте с 13.12.2005
Offline
123
#23
-kost-:
Точнее добавить то список свойств можно, но при автоматическом или ручном прогоне варианты значений из этого списка не выбираются.

Сорри, действительно ошибка имеет место быть. Обновление завтра утром-днем.

*Arc*:
Пожелание на ближайший ап. Хотелось бы увидеть такую функцию, как просмотр наличия в обратных для конкретно выбранного сайта, а не в целом для всех. ;)

Будет, обязательно, но не в ближайший... Вопрос нескольких недель.

saman:
А воспользоваться сортировкой в столбце "Распознавание картинки" в "Перечне каталогов" не судьба?

Это даст несколько другой вопрос. Этот столбец пользователь сам волен заполнять или нет. Раньше, до того, как программа научилась работать с капчами, этот флажек имел глубинный смысл, сейчас же его наличие - скорее дань традиции. Если пользователь не отмечал этой галкой те каталоги, которые имеют капчу, то такая сортировка ничего не даст.

В следующем обновлении будет способ отловить все каталоги, которые просят распознать картинки (в случае, если или указана картинка, или указано поле, куда вводить результат распознавания).

Ришат:
cheboor ведутся ли какие нибудь работы по ускорению работы программы?

Да, конечно.

Ice_sCream:
Ришат, это ведь не тема по изучению синтаксиса запросов Google.
p.s. Ответ: inurl:add.php.

Ответ не совсем корректен.

Если речь идет об инструменте "Импорт из SERP", то ответом будет:

в случае, если Вы поставите тип поиска "Обычный запрос" - то правильный результат даст inurl:add.php, если же тип поиска "Поиск по части адреса страницы", то правильно ввести значение "add.php". Все "типы поиска" - это всего лишь способ облегчить ввод запроса, не более того.

[Удален]
#24

cheboor тогда получается в помём случае для того чтобы выдрать сайты из выдачи гугла нужна поставить поиск по части адреса страницы, и ввести add.php т.к под поиском по части имени подразумевается inurl: так ведь? а dd.php я сам ввожу

cheboor
На сайте с 13.12.2005
Offline
123
#25

Небольшое обновление.

Ничего совсем нового в программе не появилось, это не более чем причесывание старых функций.

Ришат:
cheboor тогда получается в помём случае для того чтобы выдрать сайты из выдачи гугла нужна поставить поиск по части адреса страницы, и ввести add.php т.к под поиском по части имени подразумевается inurl: так ведь? а dd.php я сам ввожу

Да, именно так.

[Удален]
#26

cheboor

при импорте каталогов есть меню не загружать дубликаты, что это значит?

это значит что прога не загрузит повторы в базе (которую импотируем)??

это значит что прога сравнит базу с папкой куда импотируется база и не загрузит повторы?

В проге есть функция поиска дубликатов, где она их ищет?

в базе которую задал?

по всем папкаМ?

Могли бы сделать...

Так чтобы можно было создовать папки в самом верхнем уровне, не так как сейчас можно создать и прикрепить только к основной папке. а отдельные корневые

[Удален]
#27

поробывал выдрать сайты

но прога выдирает только 5 страниц и пишет Работа завершена. Обработано страниц 5

почему не выдирает все 4 000 сайтов?

cheboor
На сайте с 13.12.2005
Offline
123
#28
Ришат:
при импорте каталогов есть меню не загружать дубликаты, что это значит?
это значит что прога не загрузит повторы в базе (которую импотируем)??
это значит что прога сравнит базу с папкой куда импотируется база и не загрузит повторы?

а) не будут добавлены дублирующиеся значения из импортируемой базы

б) каждая импортируемая запись будет проверена, на предмет наличия такого каталога в рабочей базы, если совпадение будет найдено, то каталог загружен не будет.

Ришат:
В проге есть функция поиска дубликатов, где она их ищет?
в базе которую задал?
по всем папкаМ?

по тем папкам, которые Вы выбрали

Ришат:
Так чтобы можно было создовать папки в самом верхнем уровне, не так как сейчас можно создать и прикрепить только к основной папке. а отдельные корневые

Зачем?

Ришат:
поробывал выдрать сайты
но прога выдирает только 5 страниц и пишет Работа завершена. Обработано страниц 5
почему не выдирает все 4 000 сайтов?

если приведете точное описание, что делаете, то я скажу в чем проблема. откуда, куда и какие сайты вы пробывали выдрать?

[Удален]
#29

Каталоги-импорт-из серпа-Тип поиск по прямой фразе- запрос inurl:add.php - поисковая машина гугла

[Удален]
#30

есть два способа в проге как выдрать и оба не выдирают сайты из выдачи гугла

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий