MeLFin

Рейтинг
53
Регистрация
11.07.2007
Насколько плохо обмениваться ссылками напрямую, нужно ли избегать этого?

Если хотите делать обмен, то делайте перекрестный.

мать вашу, язык учите!

мать вашу, читайте сначала всю ветку, а потом пишите.

Я уже 10 раз сказал, что "believe in" - не слышат люди.

А believe me - просто и понятно.

Домен под идею-проекта, которая не связана с музыкой, поэтому решил отдать кому-нибудь на использование, пока есть ажиотаж вокруг этой песни. Так что:

домейнеры блин, сначала регят мусор потом думают:-)

Это не ко мне.

Не говоря уж о том, что нужно соблюдать нормы этикета.

А следовало бы...

Я в первую очередь покупал не для продажи, а под проект.

Поэтому, если даже никто не купит, я найду применение домену.

То, что в песне - in - никто не сомневается. Но как будут искать песню люди?

Как они уже ее ищут? - in - услышали не многие. А me - вся страна.

Домены доступны в аренду по цене покупки + 400 руб - 1000 р. за штуку.

Срок аренды - 1 месяц.

Источник может быть только один - издатель песни.

http://www.eurovision.tv/page/news/b...e-2008?id=1098

Заодно можно заглянуть в текст песни. Там поётся "believing", а не "believe me".

Вообще-то Вы правы. Но люди слышат то, что слышат. И хотят скачать то, что услышали. Вчера в прямом эфире только ди-джей с love-радио поправил всю студию и сказал, что там действительно "believing", а не "believe me". Но на него никто не обратил внимание и еще много много раз уважаемые люди в студии повторяли одно и то же - "believe me".

Только песня называется просто "Believe".

В разных источниках по-разному - где Believe, а где Believe me. Believe me - я чаще видел.

believe-me.ru

believeme.ru

И д.р. варианты названия песни Димы Билана продам недорого.;)

1) техническим причинам (отсутствие надежного интерфейса управления).

2) идеологическим. Не секрет, что иногда происходят ошибки при получении данных. Нам бы не хотелось "приучать" пользователей на автомате снимать и отправлять в BL нормальные ссылки. С учетом постоянного совершенствования алгоритмов автоматизация таких процессов бесперспективна. Каждый пользователь биржы должен отчетливо понимать, что он делает, а не просто жать кнопку "Удалить плохие ссылки" (а ведь критерии "плохой" ссылки еще зачастую субъективные) Другое дело, что нужно увеличивать точность проверки индексации каждой из ссылок. А уж экспортировать список "не подходящих" урлов из программы в сапе можно очень быстро.

ИМХО - решаемые проблемы. Никто не призывает сделать одну кнопку: удалить плохие ссылки.

(а ведь критерии "плохой" ссылки еще зачастую субъективные)

Все эти критерии можно оставить пользователю для настройки.

Не секрет, что иногда происходят ошибки при получении данных. Нам бы не хотелось "приучать" пользователей на автомате снимать и отправлять в BL нормальные ссылки.

Мне кажется, Вы немного перегибаете палку. С искажениями данных можно бороться, вводить проверки на целостность и т.д.

Если Вы считаете, что автоматическая загрузка и выгрузка обратно - это большая проблема - их можно не делать. Достаточно обеспечить полную поддержку выгружаемых файлов (то есть чтобы номинальные значения ПР, тИЦ, количество внешних ссылок и др. загружались в программу, там проверялись и выдавался полный гибкий отчет, удобный для анализа и для последующего экспорта обратно в Сапе + желательно формирование внутренних списков в программе со страницами ПР которых не соответствует и др. списки, которые можно вести в автоматическом режиме и учитывать эти списки при повторной проверке).

Вы просто поймите: проверять все показатели ПР, ТИЦ, внешних ссылок и сравнивать их с номинальными, указанными на бирже - это очень большая проблема. Проверить легко, а вот сравнить и получить сравнительный анализ - сложно. Нет продуктов которые бы сейчас выполняли сравнительный анализ. Ведь, например, ПР бывают разные (я думаю все знают:)). Я купил, например, ссылок ПР 3 по фильтру, а потом ПР 1, уже по другому фильтру. Самый лучший вариант выгрузить все купленные ссылки и проверить их на реальность показателей. А сейчас этого нет. И приходится в ручную выбирать страницы с ПР 3, проверять соответствуют ли они своим показателям или нет, потом с ПР 1 и тоже самое, потом проверять внешние ссылки - действительно их там 5 или же 25. А все программы которые проверяют страницы не выдают сравнительный анализ количества внешних ссылок. Они сообщат, что на одной странице 5 ссылок, а на другой 25 - дальше сам сортируй как хочешь, сам сверяй. естественно когда страниц и ссылок сотни и тысячи этого сделать невозможно.

Кстати, возможен еще один вариант реализации нужных функций: создание буферной программы для анализа.

Как она может работать:

Из Сапе грузится файл с со всеми ссылками и со всеми параметрами. Из загруженного файла программа формирует просто текстовый файл с адресами страниц. Этот текстовый файл загружается в Semonitor или другую какую-то программу, которая может провести полный анализ нужных параметров. В semonitor (или еще где-то) проводится полная проверка. Результаты анализа выгружаются в текстовый файл. Этот текстовый файл загружается обратно в буферную программу. В программе проводится анализ номинальных и реальных показателей. Формируется отчет. Создаются списки страниц с ПР = 0, с большим количеством ссылок на странице и т.д. Эти списки будут учитываться программой при последующих загрузках. Чтобы в последующем сразу выдавать отчет о страницах купленных повторно, но уже имеющих "плохую историю". Кроме списков формируется блек лист, с сайтами использующими роботс и другие обманные приемы. Все полученные результаты, сведенные в удобные таблицы, анализируются оптимизатором он принимает решение о дальнейших действиях со страницами - кого в блек-лист, кого оставить несмотря на заниженный ПР. В конце концов оптимизатор создает список ссылок, которые он решил не удалять. Дата проверки этих ссылок запоминается. Через четыре недели программа выдает сообщение оптимизатору "Часть ссылок куплена больше месяца назад - создать файл для проверки проиндексированности ссылок ПС?" Отвечаешь -да - программа создает файл со всеми ссылками, которые месяц назад пользователь решил сохранить + тексты ссылок (формат YCCY). Далее пользователь в ручную запускает проверку в юкки, а получившейся результат грузит обратно в программу. Дата проверки юкки запоминается (чтобы через какое-то время опять предложить проверку). Ненужные ссылки пользователь удаляет в ручную, добавляет в блек-лист и т.д.

В результате программа по сути становиться универсальным буфером для анализа результатов проверки и хранения итогов. При этом приспособить программу для различных "проверялок" не сложно - нужно лишь поддерживать их экспортные файлы. Если Сапе или какая-то проверяющая программа решит внести изменения в свои экспортные файлы - подправить буферную программу можно очень быстро.

Посмотрел я на описание того сервиса, сомневаюсь, что бабло уйдет...

Но есть и другие разработчики, которые могут что-нибудь придумать. Пока они ничего не придумали - Вы в выгодном полжении. Пользуйтесь своим положением, коли есть такая возможность. Мы с нетерпением ждем развития Вашего скрипта.

- небезопасная работа с биржей используя логин-пароль и парсинг страниц, что тоже будет давать сбои, потому что XML - самая разумная форма передачи информации

Да согласен, если будет XML и дополнительный доступ без финансов - это очень хорошо.

Но вопрос безопасности мне кажется не стоит столь остро. Пароли не обязательно сохранять в программе - можно сделать так, чтобы пользователь каждый раз при входе в программу набирал логин, пароль. Чтобы программа не висела в аккаунте постоянно, а только заходила туда, когда надо выгрузить/сгрузить ссылки, возможно выполняла действия со входом в аккаунт не в автоматическом, а в полуавтоматическом режиме, то есть работала с аккаунтом только после уведомления пользователя, что сейчас будет производиться работа с аккаунтом, и под присмотром пользователя + другие меры можно придумать для обеспечения надежной безопасности (программисты и более компетентные люди я думаю лучше смогут описать возможные меры по безопасности).

В конце-концов, нужно использовать антивирусные пакеты и файрволы, никто Вам не даст 100% безопасности в сети, если не будете хоть чуть-чуть о ней думать. Точно также у Вас могут своровать доступ к фтп, к icq, почте и т.д.

XML – тоже нужно, но опять же и без xml – все будет работать не плохо. Могут быть сбои, но на них программа просто должна реагировать соответствующим образом. По крайней мере Ксап-парсер (программа для работы с Ксап, в другом топике обсуждается) – меня лично не мучила сбоями и отзывов о сбоях я не слышал.

Нагрузка на систему – не хорошо. Но пусть тогда система обеспечивает нас актуальной информацией о страницах - никто не будет делать лишних запросов. Я все же не думаю, что экспорт/импорт необходимых данных будет чрезвычайно загружать Сапе.

Кстати здесь: человек обещает именно то что нужно, по крайней мере мне

Хорошая вещь - цена не маленькая((. Функций можно и побольше сделать. Думаю разработчики semonitor и yazzle смогут написать доп. модули к своим основным программам за меньшие деньги и с большими функциями (не в обиду разработчику скрипта).

Всего: 73