Uniplace

Рейтинг
28
Регистрация
17.09.2012
The WishMaster:
Да прям таки. У меня все в ноль скатилось :)

Пришлите пожалуйста примеры в личку. Мы обязательно разберемся, такой ситуации быть не должно.

kvazarEvd:
какова судьба сайта, если тиц стал 0?? Что будет с проданными ссылками и доходом?

Доброе утро, kvazarEvd.

С проданными ссылками изменений не будет. Новые ссылки будут покупаться по новым ценам.

Concurent:
Невозможно вывести средства из системы, появляется такое сообщение:
"К сожалению, сервер не может обработать ваш запрос
Наши специалисты уже работают над устранением проблемы. Если проблема не исчезнет, пожалуйста, обратитесь в службу поддержки support@uniplace.ru. ".

Добрый день.

На текущий момент проблема исправлена. Приносим извинения за доставленные неудобства.

---------- Добавлено 02.12.2012 в 15:09 ----------

<!--WEB-->:
Однако, соблюдают. Там обороты не чета вашим, а боты вообще незаметны.

Тем не менее, проблемы бывают и у них:

/ru/forum/639071

/ru/forum/388555

/ru/forum/256900

В любом случае, при возникновении любых проблем с нагрузкой по причине нашего бота, просим сообщить об этом. Любая обратная связь поможет в улучшении алгоритмов робота. За последний месяц благодаря замечаниям наших пользователей удалось значительно оптимизировать нагрузку.

Grey23:
Uniplace, согласитесь, то, что вебмастера вынуждены править robots.txt из-за ваших ботов не нормально. У кого-то из-за высокой нагрузки сервера падают, кого-то хостер вынуждает переходить на более дорогой тариф.
В других биржах поставил код и забыл, смотришь, как денежка капает.
Неоднократно в теме уже об этом писали, а воз и ныне там...

Да, действительно, в первую очередь проблема нагрузки - это проблема биржи. С момента открытия мы проделали значительную работу для того, чтобы нагрузка была минимально возможной, и продолжаем над этим работать. Но, как мы уже писали, соблюсти идеальный баланс невозможно, и в интересах вебмастера обезопасить себя, если его сайту требуется более бережное обращение.

Stop-TussiN:
Опять **ка ваши боты мой сервер положили. Вырвите руки ваши программистам. Зла не хватает.

Причем абсолютно плевать на robots.txt с ограничениями

Проверили вашу ситуацию, роботы полностью соблюдают crawl-delay. Если у вас сайты находятся на одном сервере, то рекомендуем это учитывать при установке задержки, т.к. crawl-delay по спецификации считается в рамках домена, но не сервера.

НиколаичЪ:
Добавил новый сайт, код не размещается по каким-то причинам. Подробности в личке. В чем проблемы?

Добрый день.

Мы проанализировали Ваше обращение. На Вашем сайте код не размещается, т.к. Ваш хостинг запрещает размещать исполняемый код в папках с правами 777. Для корректной работы Вам необходимо создать отдельную папку в любом месте на сайте и указать путь к этой папке в настройках uniplacer.php для файлов unilinks.db и ulog.db.

kvazarEvd:
Снова проблемы с записью unilinks.db. На всех 22-х сайтах разом начал перезаписываться, 20 минут нагрузка 100% на сервере, потом нифига не получилось записать, файлы пустые. Еще через 20 минут новая попытка. И снова ничего не получается. Сервер снова перегружен 100%. В итоге 40 минут на сайтах ссылок нет!!!!!!!Уже 100 раз предлагали сделать как у сапы и трастлинка. Формируйте файл у себя, а нам отправляйте готовый. Проблеме уже 2 месяца, бесит уже...Или смотрите, что все сайты на одном IP и записывайте unilinks.db последовательно.

---------- Добавлено 26.11.2012 в 21:33 ----------

5 минут назад снова все завершилось с ошибкой и ссылок нифига нет.

Добрый день. Спасибо за обращение, проблема уже устранена.

authris:
5 дней в системе, куплена 1 ссылка, не густо что-то

Добрый день.

Пришлите пожалуйста в личку или на support@uniplace.ru данные вашего аккаунта.

prikolin:
Повторюсь, внутренних ссылок без слеша на сайте не существует.
Вы их сами придумали, а то, что движок их корректно обрабатывает - это уже другой разговор.

Система rookee.ru не покупает ссылки на страницах со слешем. Наш робот проверил существование альтернатив без слэша на вашем сайте и добавил их в систему. Но обработка вашим движком не совсем корректна, т.к. в случае существования альтернативного адреса страницы должно производится перенаправление на основной адрес, а не загрузка отдельной страницы со статусом 200 ОК.

prikolin:

В поисковом индексе (Я и Г) присутствуют только реальные внутренние ссылки.

Данная проблема на вашем сайте уже привела к появлению дублей страниц в индексе Яндекса:

prikolin:
Все страницы на моем сайте либо завершаются слешем (кроме главной), либо *.html
Бета-тест у вас, а не у меня. Вот и доработайте свою систему, что-бы не возникало таких вопросов.

У вас на сайте большое число страниц вида:


...
/page/5
/page/5/
...

При этом статус этих страниц 200 ОК, т.е. по мнению нашего робота это разные страницы, хотя они содержат одинаковый контент и являются дублями.

Всего: 346