_Snake_

_Snake_
Рейтинг
151
Регистрация
06.12.2010
vastmanager:
Это на каждый сайт (сервер) ставить неибические скрипты и
библиотеки, заниматься их настройкой и обучением, собрать базу текстов в 7 Тб,
чтобы получить выхлоп с этого дора в один бакс в сутки? Или сколько там дает
выхлопа средний дорвей? И как масштабировать такую схему?

А что, доргены бывают только серверными? 🍿

---------- Добавлено 04.02.2017 в 00:13 ----------

vastmanager:
А текст для дора и копирайтер напишет, за 1000 знаков
там не дорого, если нет своего генератора текстовки у дорвейщега.

3000 * 80 = 240000 Совсем не дорого :2cents:

sidorka:
Был бы признателен, если бы кто направил первые шаги - применить такой-то типа нейронки, почитать тут, либу взять эту.
sidorka:

Есть список доменов с 5 параметрами из топа серпа. Если применять нейронку, для анализа и дальнейшего предсказания пригодности дропа по этим же параметрам, какой тип нейрона выбрать? Какой инструментарий лучше применить на пхп? С чего хоть начать?

Схема для твоей сети нужна такая

Input Layer - это твои 5 параметров, передаются всё время в одном порядке.

Middle Layer - промежуточный слой, кол-во нейронов подбираешь экспериментальным путём

Output Layer - это выходной слой с 2мя нейронами (допустим первый это - ДА, второй - Нет)

Дальше читаешь тут https://habrahabr.ru/post/158729/

1. Этап обучения(листинг train.php)

Этап обучения происходит на заведомо известных данных, где ты знаешь какой домен подходит какой нет.

Функция generate_frequencies тебе не нужна

Вместо:

$ann = fann_create(array(256, 128, 3), 1.0, 0.7);

писать примерно так


/**
* Значения в масиве array(5, 4, 2):

* Input Layer - 5
* Middle Layer - 4 (это значение можно менять увеличивая или уменьшая промежуточный слой)
* Output Layer - 2
*/
$ann = fann_create(array(5, 4, 2), 1.0, 0.7);

Вместо:


fann_train($ann,
array(
array(
generate_frequencies(file_get_contents("en.txt")), // Inputs
array(1, 0, 0) // Outputs
),
array(
generate_frequencies(file_get_contents("fr.txt")), // Inputs
array(0, 1, 0) // Outputs
),
array(
generate_frequencies(file_get_contents("pl.txt")), // Inputs
array(0, 0, 1) // Outputs
),
),
100000,
0.00001,
1000
);


fann_train($ann,
array(
// Первый домен
array(
array(парам1, парам2, парам3, парам4, парам5), // Это входной слой Input Layer
array(1, 0) // Это выходной слой Output Layer - да, домен подходит
),
// Второй домен
array(
array(парам1, парам2, парам3, парам4, парам5), // Это входной слой Input Layer
array(0, 1) // Это выходной слой Output Layer - нет, домен не подходит
),
// Третий домен
array(
array(парам1, парам2, парам3, парам4, парам5), // Это входной слой Input Layer
array(1, 0) // Это выходной слой Output Layer - да, домен подходит
),
),
100000,
0.00001,
1000
);

2. Использование(листинг run.php)

Вместо:

$output = fann_run($ann, generate_frequencies("ANN are slowly adjusted so as to produce the same output as in
the examples. The hope is that when the ANN is shown a new
X-ray images containing healthy tissues"));

Делаешь так:

$output = fann_run($ann, array(парам1, парам2, парам3, парам4, парам5));

В $output будет передан массив типо такого:


array(2) {
|0|=>
float(0) - это твой первый нейрон - то есть "да"
|1|=>
float(0.99334162473679) - это твой второй нейрон - то есть "нет"
}

В общем смотришь какой нейрон больше вес отдаёт, такой твой и ответ.

sidorka:
Знатоки нейронок, подскажите с чего начать - не сталкивался никогда с ними, но любопытно, что за зверь.

Практическая задача.

Есть список доменов с 5 параметрами из топа серпа. Если применять нейронку, для анализа и дальнейшего предсказания пригодности дропа по этим же параметрам, какой тип нейрона выбрать? Какой инструментарий лучше применить на пхп? С чего хоть начать?

Это троллинг такой? 😕

sealo:
из вас по пальцем сосчитать можно кто понимает в кодинге нормально.

Да причём тут кодинг-то? Кодинг это уже дело второстепенное. Основная трудность, то это не КАК запрограммировать, а ЧТО программировать, нужно очень хорошее знание предметной области. Т.е. если рассматривать генерацию естественного текста, то надо как минимум быть экспертом в области лингвистики, возможно даже иметь учёную степень.

Если человек отличный автомеханик это не значит, что он может собрать вертолёт, хотя все задатки для этого имеет. Просто знаний в области вертолётостроения не хватит.

-2 Придурка :kozak:

AESCBC192:
Я действительно стремлюсь максимально сохранить секретность своих технологий, потому и не выкладывал пример столь длительное время, что касается предыдущей темы, котрую пришлось закрыть, то в ней примеров было достаточно (первая треть сообщений).

Если ты хочешь сохранить секретность своей технологии, не надо создавать тему на паблик форуме про свою технологию.

AESCBC192:

В целом складывается впечатление что есть некий "заказ" или негласный договр о понижении рейтинга темы, заспамлении её нетематическими а порой вызывающими противоречивые эмоции моментами

Так ты не понижай рейтинг темы. Ты для кого её создал? Для себя или для сообщества? Если для себя, то заведи дневник и высказывай ему все свои тяготы и невзгоды. Думаешь кому-то не плевать на твои творческие планы, людям важен результат. Ни кому не интересно толочь воду в ступе. А тебя только полторы тему уламывали выложить текст...

MO $$$, Почитай тут про самообучение. https://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B1%D0%B5%D0%B7_%D1%83%D1%87%D0%B8%D1%82%D0%B5%D0%BB%D1%8F

---------- Добавлено 28.01.2017 в 03:28 ----------

AESCBC192:
Понять можно, нейронку выгружают в список весов и видно какой признак "срабатывает" наиболее часто, иначе процесс обучения станет сложноконтролируемым

Не всегда можно понять 🍿 https://geektimes.ru/post/281998/

Мы точно не понимаем, как работает этот метод шифрования, поскольку машинное обучение позволило получить результат без демонстрации пути его разработки. На практике это означает то, что мы не сможем получить понятный человеку способ шифрования, если он будет достаточно сложным. Практическое применение этой технологии, таким образом, ограничено.
MO $$$:
Но могут и сравнить со "слепком" - это быстрее.

Допустим у тебя есть какие-то лекала по которым ты приходишь к какому-то умозаключению(например в качестве лекала на этапе обучения может выступать какая-то статья). В следующий раз когда ты будешь использовать эту мысль, эти самые лекала уже тебе не нужны, т.к. твоя мысль, можно сказать, уже "вычислена", ты обучился. Тебе на надо каждый раз тужиться "вычислять" её заново. Так же на основе уже имеющихся знаний и новой информации ты можешь сделать новые умозаключения, они действуют аддитивно.

Поисковая машина действует так же. По началу может её обучал человек, указывая какая страница спам какая не спам. Дальше в процессе работы она уже сама обучается в боевых условиях. Чем больше дорвеев она банит, тем больше она обучается. Возможно даже сами создатели уже не понимают по каким признакам она вычисляет спам. Так, что ни какие слепки ей не нужны, если машина обучилась - то она обучилась.

mat1441:
По моему скромному опыту не надолго и трафа не получали. Ну может у кого по другому хз
Ps да вспомнил, было такое. пару десятков доменов удалил, потом случайно посмотрел индекс, опа :) в индексе, восстановил как было - через пару недель опять бан 🤣

Ну так всё-таки возвращаются? Значит твои доводы не верны. Бан, дело другое, поисковые машины имеют свойства развиваться, а не деградировать.

Всего: 1049