Mike05

Рейтинг
91
Регистрация
10.06.2009

С руками какая-то фигня.

Сколько позиций снимает, потом пишет, что ошибка парсинга, выполняем повторную попытку загрузить, и так до бесконечности. Причем на кнопку отсановки парсинга не реагирует. (т.е. пишет, что принят запрос на остановку, и дальше опять подряд ошибки парсинга бесконечно).

Предложение по функционалу - группировка ключей. Опишу алгоритм, которым пользуюсь в самопальном скрипте. Смысл в том, что кеи группируются в ветки, начинающиеся с минимально-словных и продолжающиеся дополнением числа слов.

1. Берем по очереди однословные ключи. Это исходные позиции веток. Их "ценность" - частота Я "" (или что-то еще).

2. Берем двухсловные ключи. Делим на слова, каждое проверяем среди однословных. Привязываем следующим уровнем к тому однословному, у которого больше частота "". Если ни одного однословного нет - делаем новой исходной позицией.

3. Берем трехсловные ключи. делим на пары слов 1-2 и 2-3, присоединяем к лучшему двухсловному. Если не нашли двухсловных, делим по 1 слову и присоединяем к лучшему однословному. Если и однословных не нашли - делаем новой исходной позицией.

И т.д.

Результаты публикуем в виде веток, исходные позиции отсортированы по критерию (у меня частота "") и дальше под-ветки так же сортированы.

Это очень помогает при большом числе ключей и разделить их на группы/разделы, и выделить нужные, удалив ненужные производные (как расширения, так и сужения).

Плохо, что нет ясного мануала - делай раз-два-три.

Вот с проверкой вордстата - левая колонка надо вводить слова, как я понял (при этом на введенную таблицу не смотрит), а правая вроде прогоняет все слова из таблицы, невзирая на отмечены они или нет. Я правильно понял?

И сезонность идеть по всем, не глядя на отмеченные...

где бы посмотреть подробнее алгоритм, как она работает?

Дорвейность зависит от контента. Я как раз дорвеями не занимаюсь, и не собираюсь. Но масса небольших сателлитов, не настолько окупаемых, чтобы разоряться на дорогой хостинг, могла бы быть поезной.

А в реализации действительно ничего сложного нет. Но заниматься этим самому со своими не идеальными знаниями пхп бы не хотелось, и я надеялся, что именно в силу простоты идеи обязательно уже должны быть готовые решения в большом количестве. только что-то не вижу. :(

Программа просто чумовая. Приспособлена для работы на автомате, и все делает очень быстро. Моей квалификации пока не хватает, чтобы использовать все ее возможности, но это хороший повод учиться. Конечно, она не для любителей комфорта, интерфейс отсутствует начисто, но для дела очень пригодится.

stabuev:
FrontPage майкрософтовский такое умеет ;)

А что что такое плоский html это Вы так plain html перевели?

Шутку про фронтпейдж заценил. :)

А "плоский" - это я неудачно выразился, имея в виду чисто статичные страницы.

Удивительно:
CMS для управления кучей HTML - это хорошо
Но представьте картинку - вы сделали сайт на 1000 страниц, залили на FTP, все ок.
Но тут заметили ошибку в верстке или решили добавить еще один пункт меню... Это что ж, весь сайт перезаливать?
Вроде бы в 21 веке живем, доступ к дешевому хостингу с PHP у всех есть.

Перезаливать только страницы, которых коснулось изменение этого пункта меню. Ну а хоть бы и весь сайт - дело минуты его перезалить хоть все 1000 страниц. Мне видится прелесть в том, что в сами сайты руками вообще лазить не надо было бы. А все манипуляции даже сразу с группой сайтов можно было бы делать на локальном компе.

Ну и да, хостинги с пхп не проблема, но таким образом можно было бы даже на народе и т.п. сайты поддерживать. Да и на платном хостинге больше сайтов может работать из-за низких запросов к производительности сервера.

Заказал две темы. Было сделано быстро и много. Но как-либо применять это нельзя.

1. Заданный ключ входит во все фразы, никаких ассоциаций не подключалось.

2. Нет ни данных, ни следов оценки слов по каким-либо параметрам. Просто собран весь мусор с заданным ключевиком.

В результате даже обычный парсинг вордстата чем-то типа Магадана значительно эффективнее.

ТС-у: если планируешь оказывать такую услугу, то необходимо:

- выбирать все подходящии ассоциативные фразы

- отсеивать неподходящие по смыслу

- оценивать по множеству параметров (от общей частотности и точного вхождения до стоимости бегуна/директа и т.д.), указывать эти данные в результатах, ранжировать по каким-то сводным критериям (которые могут быть предметом ноу-хау). И чем больше параметров ты учтешь, тем ценнее услуга.

- опционально, но тоже могло бы иметь спрос: распределять ключи по разделам.

Вот если бы все это делалось, то услуга бы вполне могла продаваться и за деньги. А сейчас ценность ее =0.

Вот здесь в соседней теме КейКоллектор последние часы дешево продается - попробуй с его помощью+прямых рук и головы, тогда получится.

А такого, что не требовало бы php на сайтах вообще нет?

Разместили быстро. В гугле сразу попало в индекс, в Я - пока нет, но показывает страницу, с которой есть ссылка на статью, так что, думаю, тоже скоро проиндексирует.

Радует, что на сайте страница статьи не заспамлена большим кол-вом внешних ссылок, как это бывает у других.

Еще одна занятная вещь. Скормил эти размещенные статьи своему простенькому роботу, который проверяет ссылки. Получилось забавно. В браузере эти статьи есть, а когда робот загружает страницы - там статьи просто нет. Даже тайтл страницы пустой. И так по всем полутора дестякам сайтов за исключением одной. Мне лень разбираться в чем там наколка, но подозреваю, что ПС тоже не разберутся, и увидят, как мой бот.

Всего: 181