всмысле не обучится ли нейронка в числе прочих результатов и на дорвеях из выдачи? возможно, правда, они как правило не попадают в сч топ, так что скорее всего будут присутствовать в выборке на уровне процента погрешности.
если получится обучить нейронку то она выявит критерии на основании которых сайт получает место в выдаче, а эти критерии относительно стабильны, возможно и они меняются, тогда придется переобучивать нейронку, в любом случае это даст информации больше чем любые рассуждения. ---------- Добавлено 25.10.2016 в 01:36 ---------- Минус актуальных на данный момент технологий генерации сайтов в том что они статичны, стоит поиску сменить один тэг - парсеры не работают, весь софт тоже, стоит сменить какую-то настройку в алгоритме - не работает уже вся технология. В моей технологии нет статики, все построено на статистике, нет привязок к шаблонам выдачи, то есть верстка может меняться, алгоритм все равно найдет нужный линк и сниппет, аналогичный принцип хочу реализовать в методах компоновки и построения содержания - на основе актуального состояния выдачи, но то что получается больше похоже на поисковую систему, нежели на генератор сайтов, уже умеет определять параметры контента, осталось научить ранжировать.
J-ran, несколькими постами выше упоминал временной фактор, сейчас думаю над тем, как его обойти, но факт 99% достовреный что ПС-фильтры сейчас не жесткая логика а нейро, и без исследования, модель которого я приводил ранее, с имитацией фильров понять как это сделать не удастся. Фильтры сымитировать можно, для этого придется отпарсить часть выдачи и обучить на результатах нейронку, дальше эту нейронку "пройти" своим алгоритмом так чтобы она показала топ-10, если у эксперимента будет хотябы 70% достоверность, выявленный алгоритм будет очень эффективен. А время жизни домена - это лишь один из входных параметров для нейронки ПС, вес на нем немалый но не факт что это не обходится.
Насчет опыта сайтгенерации я не спорю, у меня скорее аналитический подход, но мыслями делюсь, учитываю мнение по их поводу.
Если проанализировать ответы в форуме по критериям морфолгии, семантики, частотные характеристики итд то очевидно что они далеки от оптимумов, но тем не менее на форуме есть трафик и его много, контент в индексе, отсюда вывод: ПС оценивает не параметры текста а его интересность для аудитории, можно говрить что для посещаемых ресурсов другой набор фильтров - врядли, скорее фильтр один и он оценивает суммарную способность ресурса привлекать и удерживать внимание, поэтому если вы находите способ пройти этот критерий остальными можно принебречь.
Lifemaster, извини чувак, но ты упорот) какие доказательства? сугубо с целью поделиться с людьми знаниями написал, то есть какбы некоммерчески повествовал по теме.
это прикол какой-то, зачем, берется одна-две темы и парсится полностью+ анализируется, то есть фрагмент нормальной выдачи и на этом стенде уже можно обрабатывать данные и говорить о каких-то моделях фильтров.---------- Добавлено 22.10.2016 в 19:13 ----------
ты наверно о системе, включающей другую на уровне подсистемы на информационном уровне, вобщем, судя по реакции ты не понимаешь сути предметов, о которых пытаешься рассуждать, плюс этот переход на личности он совсем неуместен, я вашу персону не затрагивал и вы мою не беспокойте.
Вобщем не долго думая решил сымитировать алго Google в полном объеме, провести так сказать ливэксперимет, а именно собрать свою ПС и настроить нейронки так чтобы выдача совпала с гугловской, ну а дальше пройти эту нейронку ГА и вот уже отфильтрованными алго с высокой живучестью делать сайты)), тем более что в "дорах" у меня шаносв нет, так что придется поисковики писать и генетические алгоритмы:(
plattoo, кстати неплохой пример алгоритма генерации читабельного текста)
Мб неэффективные попытки и потерянное в итоге коллапсируют личность куда сильнее таких фраз)
Проанализируйте самые посещаемые небанящиеся и ПС-незвисимые ресурсы, но не позиции СЕО, а с позиции кибернетики, по степеням подвижности и вы поймете что нужно делать.