Рад объявить уважаемым форумчанам что у них появилась возможность изучить на практике что представляют собой дорвеи нового поколения.
Что это значит?
Это значит что любой желающий может обратиться ко мне в аську и абсолютно бесплатно получить несколько дорвеев для практического изучения.
Сколько дорвеев дается в одни руки?
максимум я могу дать 20 дорвеев в одни руки
Сколько страниц на одном дорвее?
Любое указанное вами количество от 1 до 100.000 (сто тысяч) страниц
Какой движок у дорвеев?
Либо простой html либо вордпресс, тут вы сами выбираете что вам нужно.
На каком языке будут дорвеи?
На любом по вашему выбору и который есть в гугле, всего там 52 языка.
Какие дополнительные условия?
Условие только одно- на каждый дорвей вы должны будете установить счетчик яндекс метрики и дать мне доступ к этому счетчику чтобы я мог собирать статистику для анализа, сразу уточню если вы по каким то своим причинам не можете или не хотите ставить счетчик или давать к нему доступ то не стоит тратить ни свое ни мое время, так как дорвеев я вам в этом случае не дам.
Номер аськи есть в стартпосте.
🍿
Предлагаю сделать так, ты стучишься сейчас ко мне в аську, я показываю тебе сайт, ты сам его изучаешь со всех сторон, затем приходишь в эту тему и говоришь что лично видел сам своими глазами, естественно не паля домен.
Тебе нужно будет честно сказать сколько на сайте страниц, сколько проиндексировано гуглем, сколько яшей, сколько идет ежедневно трафика. Также сам лично проверишь все статьи и подтвердишь что все они сделаны из копипаста, сам лично все проверишь и напишешь сюда.
Согласен?? Думаю местные дорвейщики тебе поверят, заодно сам поглядишь как вживую выглядят и работают мои выдумки.
Обращаю ваше внимание вот на этот пункт
3- Затем он их анализирует и оценивает по специальному алгоритму пригодности сбора трафика с точки зрения поисковых систем.
Что это значит? Это значит что робот берет каждый кусочек текста, и взвешивает его по специальному алгоритму расчета пригодности для сбора трафика, и начисляет баллы, если кусочек текста не набрал нужного количества баллов то он отбрасывается, таким образом из нескольких тысяч кусочков остаются всего лишь несколько сотен пригодных для дальнейшей работы.
Если говорить проще то робот берет и изучает каждый кусочек текста и принимает решение будет ли на этот текст даваться трафик из поисковых систем или не будет.
Уникальность такого текста 0%, то есть никакой уникальности нету вообще, тем не менее абсолютно все статьи находятся как в индексе яндекса так и гугла, и на них идет трафик из этих поисковых систем.
Для сомневающихся рекомендую сделать мешанку предложений из десятков разных текстов, затем проверить ее на уникальность, убедиться что уникальность круглый 0%, затем залить на сайт и смотреть как поисковики проиндексируют данный текст и попытаться понять и объяснить себе что уникальность 0% а текст в индексе. Ну и конечно проанализировать не забыть последствия при такой аховой уникальности. 🍿
А вообще те кто сомневается могут провести натурные испытания, взять скажем 15 разных статей, выдрать из них рандомом кусочки по 3 предложения и склеить их между собой в один текст, и залить на сайт и смотреть что будут делать поисковики.
У меня таким образом сделано несколько тысяч статей, все они в индексе, все они дают трафик.
Но опять же я не призываю верить мне на слово, предлагаю любому желающему проделать этот несложный эксперимент и самому своими глазами увидеть результаты и сделать выводы.
Кстати жирные дропы тут не нужны, все прекрасно залетает в индекс на нулевых свежих доменах и также прекрасно дает трафик.
Что касается основного отличия от других парсеров и доргенов, у них отсутствуют механизм взвешивания на пригодность к сбору трафика, так как далеко не каждый кусочек текста способен давать трафик, и если просто делать мешанку кусочков то результаты слабый, а если из отобранных кусочков то результат хороший.
По всей видимости вы не зная тонкостей моей методики поспешили сделать вывод. Для того чтобы вы и другие форумчане имели верное представление о методике создания сайтов вкратце опишу ее суть.
1- Робот парсит выдачу по определенным ключам складывая все тексты в папку.
2- Затем робот нарезает все тексты на куски длинной по 3 предложения.
4- Затем по специальному алгоритму он ищет похожие по смыслу отрывки и склеивает их между собой.
5- Специальный работник проверяет за роботом что склейка кусков прошла осмысленно, то есть статья читается и понимается как одно целое, если что то не так работник жмет кнопку и робот подбирает замену для этого кусочка и снова подает статью на проверку.
То есть работник не пишет тут никакого текста, он просто контролирует правильность работы робота и если где то нестыковка по смыслу он подает роботу сигнал и робот подбирает замену.
Эту работу может выполнять практически любой человек, плачу я за это 5 рублей за статью, и желающих поработать таким образом очень много.
Многие могут сказать что для создания англоязычных сайтов нужен работник со знанием иностранного языка, это конечно не так.
Изучая данный вопрос со всех сторон я пришел к выводу что существует очень много тематик в которых автоматические переводчики прекрасно переводят текст.
То есть работник будет видеть отрывки не на иностранном языке а уже переведенные на русский, и сможет прекрасно проверять итоговый текст на осмысленность, а робот будет клеить уже на иностранном языке.
Вот пример одной такой тематики- лечение кашля.
Берем отрывок с английского сайта.
Symptoms to Watch Out For
Respiratory tract infections involve body aches and fever, whereas allergies do not. You should see a doctor if you develop a fever or experience chills, as these symptoms can be a sign of a serious lung infection like bronchitis. You should also seek medical attention if your cough is violent or you produce thick, bad-smelling, off-colored phlegm.
You can treat coughs due to colds, allergies, and sinus infections with a number of over-the-counter medicines. However, for those who prefer to avoid chemicals, we’ve listed a few home remedies that can help.
И переводим автоматическим переводчиком.
Симптомы, которые нужно остерегаться
Инфекции дыхательных путей включают мышечные боли и лихорадку, в то время как аллергии нет. Вы должны обратиться к врачу, если у вас присутствует лихорадка или озноб опыт, так как эти симптомы могут быть признаком серьезной легочной инфекции, как бронхит. Вы должны также обратиться к врачу, если ваш кашель является сильным или у вас отходит много мокроты.
Вы можете лечить кашель из-за простуды, аллергии и инфекций пазухи с рядом более без рецепта лекарств. Тем не менее, для тех, кто предпочитает избегать химических веществ, мы перечислили несколько домашних средств, которые могут помочь.
Смотрим на переведенный текст и задаем вопрос- сможет ли работник понять о чем тут идет речь и уловить смысл данного текстового отрывка, если он это сможет сделать то робот прекрасно скомпонует полностью читаемую и нормальную статью на иностранном языке, и эта статья даст достаточное количество трафика и будет надежно сидеть в индексе.
Вполне естественно что цифры которые я привожу могут вызывать у вас сомнение. Но в своих расчетах я практически всегда стараюсь опираться на данные из первоисточника и не верить никому на слово если они не могут внятно объяснить откуда они взяли данные для своих выводов.
Поэтому предлагаю вам самому лично убедиться в правоте моих слов, для этого вам нужно зайти на биржу сайтов телдери, и нажать кнопку купить сайт, выбрать там сайт с доменом с доходом только от контекстной рекламы. Вам откроется список сайтов столбиком, так вот там нас интересуют только англоязычные сайты под адсенс, все найденные сайты вы аккурантно копируйте к себе в текстовый файл пока там не накопится штук 300 сайтов.
Затем приступайте к анализу, нас будут интересовать в каждом сайте всего 2 цифры,
1- Количество ежедневных уникальных посетителей
2- Ежемесячный доход с адсенса.
Нам нужно вычислить соотношение прибыли и посетителей, для этого мы берем сумму ежемесечного дохода с данного сайта и делим его на количество ежедневных уникальных посетителей. И получаем некую цифру, данная цифра показывает нам уровень прибыльности данного сайта, этакую плотность дохода удельную на одного посетителя.
Так вот для сайтов на русском языке под адсенс эта цифра раняется в среднем 4 или 5 рублей.
А для сайтов на английском языке эта цифра равняется в среднем 50 рублей или 60 рублей, а весьма часто доходит до 80 или 90 рублей.
Зная эту цифру и количество ежедневных посетителей мы можем вычислить сумму месячного дохода весьма близкую к реальности, для этого нужно просто число ежедневное посетителей умножить на эту цифру, для самопроверки попробуйте сначала высчитать эту цифру а затем удалить данные о доходах полученные с телдери и высчитать их самостоятельно, а затем сравните с реальными доходами, вы сами увидите что ваши расчеты практически на 90% совпадают с реальностью.
Так что я не настаиваю чтобы мне верили на слово, а предлагаю любому желающему самому лично все проверить и получить информацию из первоисточника.
Приветствую уважаемых форумчан.
Рад сообщить что снова ищутся партнеры для совместного создания двух новых программ.
Программа номер 1.
Создание дорвеев на любом языке, хотя это скорее не дорвеи а что то то среднее, вообщем люди на этих сайтах сидят по полчаса и читают статьи, поисковики отлично индексируют и дают трафик и главное что надежно держат в индексе.
Программа номер 2.
Создание полностью читаемых и осмысленных сайтов на иностранном языке под адсенс.
Условия партнерства- я даю детальный алгоритм и консультирую программиста в ходе создания программы, за это я получаю эту программу в свою собственность и использую для своих нужд.
Принцип генерации текстов я уже рассказывал выше.
Чтобы не тратить ваше и мое время попусту порядок работы будет такой- Вы стучитесь ко мне в аську и рассказываете кратко о том програмист ли вы или у вас есть знакомый програмист либо вы его можете нанять. Я в свою очередь даю вам адреса пары или тройки десятков сайтов, вы их сами изучаете лично своими глазами, убеждаетесь что все они давно и надежно сидят в индексе, дают отличный трафик, полностью сделаны из копипасты по моему алгоритму ( для тех кто не знает моего алгоритма не стоит делать выводы заранее на основе слова- копипаста).
Затем я даю вам детальное техзадание для програмиста и полностью консультирую его в ходе создания программы.
Для справки уровень дохода в англоязычном сегменте интернета сегодня рассчитывается по формуле- количество уникальных посетителей в сутки на данном сайте (умноженное) на 60 рублей= месячный заработок на данном сайте.
То есть сайт с трафиком в 200 уников в сутки в месяц даст примерно 12.000 рублей прибыли.
Для 200 уников нужно будет написать с помощью программ 100 статей, это можно сделать самому или нанять работников по 5 рублей на 1 статью.
Текста полностью читаемые и осмысленные, в этом вы убедитесь сами когда я вам покажу сайты для анализа сделанные по моей технологии.
По сути сейчас нужно только лишь на основе имеющегося и прошедшего успешную практическую проверку алгоритма сделать две программы.
Аська для связи- 660-91шесть-82девять
plattoo, Вы все больше упираете на продвижение запросов но упускаете очень важные вещи из виду. Кратко поделюсь с вами этими важными моментами механизма распределения трафика в поисковых системах так как они могут вам пригодится или кому нибудь из форумчан пригодятся.
Буду писать кратко так как разжевывать лень детально, в конце приведу обоснование для того чтобы желающие сами могли проверить как и что.
Каждому сайту поисковые системы присваивают определенный статус. На основе проведенных наблюдений и анализа данных я пришел к выводу что таких статуса 3.
1- Лидер ниши
2- Середнячки
3- Отстой
После того как сайт получает этот статус на него начинает распределяться трафик в соответствии с этим статусом.
Все поисковые запросы также делятся на три большие группы.
1- Запросы для лидеров ниши
2- Запросы для середнячков
3- Отстойные запросы
Обоснование:
Если взять 30.000 запросов и спарсить топ-20, и посмотреть на какие сайты больше всего поисковики распределили трафику то можно заметить что они отличаются одним важным параметром, это ценовой плотностью ключа. Что такое ценовая плотность ключа?
Это есть результат деления суммы ставок в контекстой рекламе на количество этих ключей.
То есть например у нас есть 3 ключа
1 ключ- 35 рублей в контекстной рекламе
2 ключ- 75 рублей в контекстной рекламе
3 ключ- 20 рублей в контекстной рекламе
выходит что 130 рублей на 3 ключа, итого делим 130 на 3 и получаем 43, в данном случае у нас 43 и есть ценовая плотность ключа.
После того как мы спарсили 30.000 ключей мы строим простую таблицу в которой пишем урлы сайтов, суммируем стоимость ключей и делим на их количество. Таким образом мы можем получить ценовую плотность каждого конкретного сайта.
Так вот сразу на общем фоне начинают выделяться сайты у которых ценовая плотность превосходит остальные сайты в сотни раз!!!
То есть есть два сайта.
на один сайт поисковики дали 437 человек
на второй сайт дали 470 человек.
и тематика одна и та же, а вот ценовая плотность данных сайтов отличается в 50 раз!!
При осмотре сайтов выясняется что сайт с высокой ценовой плотностью представляет собой крупный тематический портал с возрастом более 10 лет, а второй сайт обычный статейник с возрастом менее года. Тематика у них одна и та же.
Так вот сайты с высокой ценовой плотностью все как на подбор. Они старше 3 лет, на них несколько тысяч статей, все статьи большого размера. Их часто коментируют, вообщем трастовые сайты. Детальный анализ нескольких ниш выявил закономерности что в каждой ниши таких сайтов от 50 до 170, что они забирают себе все дорогие и вкусные запросы, еще некоторые интересные моменты выявил анализ. Про середнячки и отстойные сайты писать мне лень, у них свои правила поступления трафика, кому надо могут вычислить сами.
Так вот я это к чему, вы товарищ plattoo описываете как лихо вы продвигаете запросы в звонкую монету, но по видимому не понимаете что запросы вы продвигаете на сайте который является лидером ниши и поисковые системы щедрой рукой наливают туда хорошего дорогого и качественного трафика с высокой ценовой плотностью. А если вы попытаетесь продвигать такие запросы на средних или отстойных сайтах то ждет вас огорчение, не дадут вам поисковики трафика по этим запросам на средние сайты.
Кстати кому интересно то могу дать подсказку что ценовая плотность и траст сайта связаны напрямую, и через элементарное вычисление ценовой плотности данного сайта легко можно вычислить его траст. То есть наглядно увидеть насколько сильно любят поисковые системы тот или иной сайт и кому сливают вкусные дорогие запросы а кому сливают шлак.
В аську уже обратилось несколько человек с серча и все почему то утверждают что никакого равномерного распределения трафика с поисковых систем не существует и что я пишу ерунду и приводят примеры запросов на своих сайтах что сегодня у них по этому запросу сайт в топе а через 3 дня уже в топе совершенно другой сайт и мол как они выражаются сплошной рандом в выдаче и никакой системы они в этом не видят.
Специально для них а также для всех остальных читателей темы покажу несколько простых элементарных вещей которые они в упор не видят или не хотят видеть.
Итак берем 30.000 (тридцать тысяч) запросов по одной тематике и начинаем парсить топ 20. В итоге у нас получиться 600.000(шестьсот тысяч) ответов поисковых систем с тем или иным урлом. Сортируем уникальные урлы и смотрим что у нас вышло всего 4675 уникальных сайтов. Составляем простую таблицу. В этой таблице у нас будет урл сайта, сколько раз этот сайт встретился из 600.000 результатов, по каким ключам выдали этот сайт поисковые системы. Элеметарную самую простую таблицу на 3 колонки.
Ждем месяц и повторяем точно также с теми же 30.000 запросами. И составляем такую же точно таблицу. Что видим?
из 4675 урлов во второй таблице совпали 4512 урлов. Какой из этого можно сделать первый вывод? На 98% трафик по группе запросов был распределен на туже самую группу сайтов что и месяц назад. Идем дальше и сравниваем запросы на одинаковых урлах в двух таблицах, и сами своими глазами видим что процентов на 85% запросы совершенно другие, а затем сравниваем количество сколько раз этот сайт встретился из 600.000 результатов, и вот тут видим что количество практически одинаково с точностью в 3%.
Для более наглядного восприятия информации объясню в упрощенном виде.
Есть 1000 разных запросов, поисковик их распределил на 100 сайтов по разным ключам, кому то досталось 50 посетителей, кому то 10, кому то 5.
Прошел месяц.
Опять запарсили 1000 запросов, поисковик их распределил уже совершенно по другому, то есть ключи стали вести на другие сайты, но суммарно они ведут все на те же 100 сайтов и в том же самом количестве практически. То есть запросы меняются каждый день, а сумма их остается одинаковой.
вот упрощенный пример такой таблички
1 урл сайта- 237 раз встретился- запросы(ремонт окон, ремонт потолка, поклейка обоев)
2 урл сайта- 136 раз встретился- запросы (как застеклить окно, как заштукатурить стену,как постелить линолиум)
3 урл сайта- 87 раз встретился- запросы (как установить кран в ванной, как закрасить стены, как заменить окна)
прошел месяц
1 урл сайта- 227 раз встретился- запросы(запросы совершенно другие чем месяц назад)
2 урл сайта- 143 раз встретился- запросы (запросы совершенно другие чем месяц назад)
3 урл сайта- 95 раз встретился- запросы (запросы совершенно другие чем месяц назад)
То есть каждый сайт получает свою порцию трафика от всего объема в этой тематике причем эта порция распределяется более менее равномерно.
Многие могут сказать ерунда и нету никакого такого распределения.
Для того чтобы понять есть оно или нет посомтрим на примеры сайтов, примеры будем брать из телдери, там продают сайты с трафиком и за 3 месяца я там набрал 500 сайтов для анализа, информация там пригодня для анализа благодаря тому что продавцы указывают количсевто статей, которое они загружали на этот сайт а также там указано точное количество трафика в сутки. Обращаю внимание что расчет нужно вести исходя из фактичсевого количества статей на сайте а не проиндексированных страниц, так как на сайте может быть 10 статей и штук 200 в индексе страниц.
Итак вот кусочек сводной таблицы
215 статей- 710 человек в сутки
83 статьи- 150 человек в сутки
100 статей- 270 человек в сутки
41 статья- 95 человек в сутки
30 статей- 47 человек в сутки.
А теперь мы берем и делим просто количество человек в сутки трафика на количество статей( обращаю ваше внимание- на количество статей а не количсевто проиндексированных страниц)
Так вот проанализировав 500 сайтов я получил что все эти 500 сайтов укладываются в значение от 1 до 4 человек на 1 статью в сутки.
По всей видимости эта цифра зависит от тематики и качества сайта. Но то что распределение равномерное это четко проглядывается и можно утверждать что у каждого сайта есть своя порция трафика выше которой он не прыгнет как бы не старались собирать туда супер-ядра семантические или продвигать типа ключи нч вч и прочую ерунду.
Опять же все данные для анализа я взял из свободного доступа и любой желающий может сам провести такой анализ. Если же кто то будет утверждать что он супергуру и двигает кучи запросов и превращает в звонкую монету то можно попросить показать его сайт а затем количество ежедневного трафика разделить на количество статей, если полученный результат укладывается в промежуток между 1 и 4 то гуру наверняка привирает чутка, так как и другие сайты без суперпродвижения и примочек получают трафик строго по этойже пропорции, и получают они его вовсе не благодаря усилиям мощным сеогуру супероптимизаторов а совсем по другой причине.
Все что вы написали выше это заблуждение. Покажу вам несколько моментов которые вы не замечаете, вполне возможно что они вам пригодятся.
1- Поисковые системы дают трафик не на статьи а на сайт, то есть если у вас сайт из 100 страниц то в первый день посетители придут на 10,61,92,71,32 страницы, во второй день посетители придут 21,57,99,41,34 страницу, в третий день посетители будут на 12,56,78,93,48 страницы. Причем сумма посещений каждый день будет одинаковая практически. То есть от того как вы подберете ключи и будут они вч или нч или еще какие, абсолютно ничего не зависит вообще. Еще раз-поисковики дают трафик на сайт в комплексе, не отдельным статьям а в комплексе.
2- Если на страницу никто не заходит с поисковых систем это не значит что она не дает трафика, даже если за длительное время на страницу никто не зашел с поиска вообще то она дает трафик наравне со всеми другими страницами, для примера есть у вас сайт на 100 страниц и трафик идет только на 50 стабильный, а на 50 других практически нету, и вы решаете удалить типа ненужные 50 страниц, и трафик у вас просядет почти в 2 раза а иногда и сильнее.
3- Все потуги собрать типа семантическое ядро хорошее это все полная ерунда, чтоб это понять достаточно просто честно хотя бы для себя посчитать, а сколько процентов из общего трафика сайта дают те ключи которые вы так тщательно собирали, так вот это число не превысит и 5%. То есть ваш кпд не выше 5%. А 95% ключей по которым идет трафик на ваш сайт вы никогда раньше не видели и не могли предположить что они существуют.
Так что от того как усиленно вы там двигаете или не двигаете некие ключи в топ абсолютно ничего не зависит, трафик на ваш сайт приходит совсем по другим принципам. Попробуйте поразмыслить над тем что я написал, вполне возможно вы сможете понять принципы распределения трафика в поисковых системах и перестанете двигать в топ какие то списки ключей.
Делайте по старинке, кто же вам запрещает?
Только вряд ли ваши дорвеи примут в адсенс и вряд ли они могут жить годами.
🍿---------- Добавлено 27.03.2016 в 14:59 ----------
Перелогиниться забыл чтоли? Я тебе ничего не предлагал, я другому форумчанину предлагал.
🍿---------- Добавлено 27.03.2016 в 15:14 ----------
Дело все в том что если вы внимательно изучите статистику своего сайта то вы сможете понять что траф идет именно что практически из ниоткуда, для понимания вопроса почитайте вот этот пост.
Для того чтобы понять что основная масса трафика у сайтов начинает прибывать именно через полгода вы можете своими глазами изучить статистику пары сотен сайтов на лиру, там есть графики и вы сами спокойно и не торопясь сможете все увидеть своими глазами, если уж и графикам лиру вы не поверите то вряд ли кто то сможет вам что то доказать.