kaizer

Рейтинг
113
Регистрация
09.06.2006
armsites:

Помогите белому честному вебмастеру. :)
Что это и как с этим бороться?
Аксимет не предлагать у меня денег столько нету после пингвина.

Подарок от нас http://wordpress.org/extend/plugins/blue-captcha/

Dozer009:
это понятно что будет нарушена. а в сгенереном тексте морфология прослеживается чтоли ?

такой изврат нужен для того чтобы задержать уника на сайте, так как гугль следит за временем нахождения чела на сайте, а для ботов гугла прятать сгенереным по НЧ ключам текст с помощь JS или css

А может лучше кнопку назад и закрыть отключить. 🤣

«Наш ответ Чемберлену» tbp3 :)

даже неудобно что он всё умеет,могут за рекламу принять.

towww:
есть ли такие доргенерирующие системы, который делают почти все сами? серверные какие нибудь?
парсят контент, заливают, выбирают шаблоны из набора. в общем, давайте поговорим по искусственный интеллект в дорвеестроительстве 🍻 :D

ТБП 3 🤣

Никанет:
Еще про zparser. Он парсит все сайты выдачи, а мне достаточно по одному. А потом разбивает спарсенное на статьи. Т.е. получается если задашь 1000 знаков, а на первом сайте 200, прога к этому же текст добавит 800 со следующего сайта. Вывод - не подходит. С таким же успехом можно парсить сниппеты.


Давай, а то я тоже тебя не понял) Опиши весь процесс подробнее. Какая программа может выдирать конкретную статью из rss (которая была в выдаче)? Это если вообще есть на сайте rss и статьи там отображаются полностью.

.

http://www.youtube.com/watch?feature=player_embedded&v=dOwxvcPtUF4

источником может быть любой рсс на любом языке. Если у источника нет рсс,то юзаем сервисы делания рсс и парсим их. Если рсс короткий а надо выпарсить полный текст,то юзаем сервис вытягивания полного текста и парсим его.

Например езинартикл http://www.youtube.com/watch?feature=player_embedded&v=WQ6u5NN8sjY

Это касаемо парсинга урлов было.

По поводу парсинга по кею, парсятся http://tbp3.ru/promo2.php причём по заданным параметрам. Можно настраивать сколько страниц топа парсить за раз и т.д.

И это делается не разово,а на постоянной основе. Т.е. софт если настроил,автоматом каждый день ходит смотрит есть ли свежак,если есть,парсит.

Но почему я спрашивал для чего надо. Так как он парсит и складывает в базу вордпреса.Откуда потом берёт по одной статье и постит,либо если надо объединит статьи или видео и запостит.

И получается круговорот, каждый день само ищет,само парсит,само постит. И так всегда.

Зы,и это не реклама,это логика по которой программа устроена. 🤣

Чё то не вижу никакой проблемы. Это парсинг рсс и чистка от мусора.м Я тебе хоть щас пару видео покажу того о чём ты говоришь.

Это парсинг чужого контента по урлам. И парсинг по кеям .

Вопрос в том,что дальше будешь делать со спаршенным.

danjoy:
Дык может чел разочаровался в автоблогах :D

Такое может быть если кеи не умеет выбирать только.

Во всём остальном,это единственная вещь,которую худо бедно можно подогнать под алго гугловские.

Всё остальное,доры,клоакинги уже не подгонишь,так как роль ПФ играет.

А вообще,могу создать топ и по пунктам обсудим реально ли обойти некоторые гугло алгоритмы, там же возможно поймут большинство,почему надо обновляемые делать,включая бабулера.

khanitskiy:




К стати я тоже недавно задумывался о такй схеме. На сколько я знаю доры с редиректом долго не живут, но вот если проверять пользователя на бота с ПС то можно отсеивать траф. Боты пусть остаются и хавают дор, а пользователей на тдс например. ПФ в таком случае страдает разве что)

на 5 лет опоздал

Blog Webmaster:
Я ученик. Да, стоит того.

Чего то ник у тебя не бабулерский,а автоблогерский. 🤣

попробуй через демку в подписи.

Всего: 894