Str256

Рейтинг
611
Регистрация
07.01.2008
Интересы
компьютеры, интернет
Neophyte:
В принципе, приемлемо. Надо полагать, что по 2,5% с каждой стороны - если так по-справделивости. То есть, покупатель накидывает 2,5 на установленную сумму сделки, а потом гарант еще 2,5 процента отнимает из самой суммы сделки и остальное переводит уже продавцу. Я правильно понял?

Кто больше заинтересован в гаранте тот и платит. Или как договоритесь.

Ещё насчёт импорта xml карты - можно ли чтобы я указывал вебпуть к ней: типа site.ru/sitemap.xml и программа сама забирала список ссылок? А то бывают карты на сотни тысяч ссылок, так что браузер просто виснет при заходе по такому адресу.

exp131:
Да, именно из-за этого. Но с помощью уменьшения количества потоков и установки задержки можно добиться хороших результатов.

В битые 10% попадает обычно, при приличных задержаках, если ещё и потоки уменьшьшать вообще затянется. Автодоскан был бы удобнее, ведь если сервер отбил запрос - отклик же будет не 404, а какая-нибудь 500-х ошибка и в этих случаях автодоскан запустить.

Вы деньги гаранту, продавец ему доступы - гарант проверяет всё, потмо вам доступы, продавцу деньги. Есть сервисы гаранты.

А что насчёт гаранта, почему не воспользовались? Или сумма настолько мала?

Недельку назад перестал предлагать установку Яндкс.Бара каждый раз когда с народа что-то скачиваешь. Я ещё думал к чему это...

Ещё раз по картам. Я тут смотрю нет генерации HTML-карты как в 1.8, можно ли включить в ближайшем обновлении. А то из csv не очень удобно переделывать, и можно ли сделать авторазбивку по числу страниц, скажем указываю 500, если сайт состоит из 5000 страниц - то автоматом создаётся карта из 10 страниц. Идеально с постраничной навигацией внизу.

И чтобы перескан битых ссылок автоматом запускался, несколько раз по крайней мере - число раз указать. А то 1.8 всё сканирует с первого раза, а у 2.х часть неизменно в битые попадает - это из-за того что потоков наверно много стоит.

И кто мне напомнит как ещё один сканер сделать. Всё перещупал не могу найти. последнее обновление. Мне надо чтобы результаты сканирования с текущим сканером остались, хочу в новый загрузить список страниц из xml и сверить результаты.

У меня тоже вопрос, к практикам. Если делать HTML карту сайта, то до какого объёма поисковики её сейчас нормально индексируют, т.е. по сколько ссылок на лист надо разбивать. Было 800 вроде когда-то, сейчас не знаю.

kane_ru:
Там текст был написан - каталог статей. Можно почитать в кеше гугла и яши

Кэш тут при чём? 403 же ваша ошибка отображается не хостера, значит зайти на страницу можно - если можно что-тогда блокировано? При блокировки по IP, вообще бы зайти с инета на ресурс было бы невозможно. См.

http://habrahabr.ru/post/158133/

У меня эта страница так отображается:

[ATTACH]116093[/ATTACH]

А реально, там что текст какой-то написан?

jpg 116093.jpg
Всего: 15927