- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В ТОП-100 по "отпечатку", например, из 10 слов будут статьи, которые имеют нулевой трафик. Как из них не собирай кусочки - у результирующей статьи трафик будет тоже нулевой.
И эти 10 слов (отпечаток) - в принципе и будут вашими ключами, но продвигать 10 ключей на одной странице - моветон.
PS: Если бы тексты по этой методике давали трафик и не банились - зачем надо продавать такую курицу?
Для прояснения этого непростого вопроса откуда берется трафик в статьях если там нету ключей предлагаю рассмотреть самый простой элементарный пример причем отталкиваясь от реальных цифр.
Итак вот у вас предположим есть сайт с посещаемостью 1000 человек в день, вы можете зайти в статистику и посмотреть сколько же он дает трафика каждый день, порядок цифр там будет примерно такой.
1005 1047 1031 1009 1061 1021....
затем открываете статистику количества запросов каждого ключа и смотрите сколько у вас ключей с циферкой 1, эта циферка 1 обозначает что на ваш сайт по этому ключу зашли всего 1 раз за все время существование сайта.
Таких запросов у вас наберется порядка 80% или даже 85%. Это реально посчитать за 1 минуту буквально. То есть по факту выходит что у вас каждый день на сайт заходят 85% посетителей по абсолютно новым ключам, по которым не было заходов ранее.
Идем дальше, и теперь начинаем смотреть на какие конкретно страницы они приходят, и видим что каждый день это совершенно разные страницы.
Пока вроде все понятно объясняю?
Таким образом видно что на ваш сайт КАЖДЫЙ ДЕНЬ приходит 85% по АБСОЛЮТНО НОВЫМ РАЗНЫМ ЗАПРОСАМ, при этом они приходят НА АБСОЛЮТНО РАЗНЫЕ СТРАНИЦЫ.
Но есть маленькое но, дело в том что таких людей каждый день ПРАКТИЧЕСКИ ОДИНАКОВОЕ КОЛИЧЕСТВО.
А теперь значит объясняем это с точки зрения традиционного сео, просто значит наш сайт КАЖДЫЙ ДЕНЬ, оказывается в топе по АБСОЛЮТНО РАЗНЫМ НЕПОВТОРЯЮЩИМСЯ ЗАПРОСАМ , и так нам вот везет что число этих запросов КАЖДЫЙ ДЕНЬ оказывается ОДИНАКОВО.
Так ловко вот оптимизировали мы сайт под неизвестные нам запросы что каждый день по ним приходит одинаковое число посетителей причем запросы мы эти и не знали и не гадали даже и предугадать не можем, но вот число посетителей которое придет завтра по ним мы знаем наперед.
Ничего вам тут странным не кажется?
Мне вот кажется странным что запросы каждый день разные, страницы которые оказывается в топе каждый день тоже разные, а их общая сумма каждый день одинакова. Если вас не затруднит то объясните это пожалуйста с точки зрения ваших знаний умений и навыков в сео.
Скажу сразу что ответ на этот вопрос я знаю и могу на практике показать и доказать это с легкостью, и формулы для расчета вывел и на практике проверил. Ответы на эти вопросы я не где-то на стороне нашел а высчитал сам, ну а вы можете поискать ответов в инете (правда их там нет) или попробовать высчитать сами, хотя это и очень непросто.
А у вас спрашиваю так как вы так категорично и безапеляционно заявляете что мол трафика не будет совсем, что мне кажется (даже не кажется а я уверен) что вы не знаете о том как работает механизм распределения трафика в поисковых системах.
Итак ждем вашего ответа на этот простой вопрос и потом задам вам еще один простой вопрос который сможет раскрыть всю глубину ваших познаний в СЕО.
🍿
basil34, такая формула? Где что подправить, подскажи.
видно что на ваш сайт КАЖДЫЙ ДЕНЬ приходит 85% по АБСОЛЮТНО НОВЫМ РАЗНЫМ ЗАПРОСАМ, при этом они приходят НА АБСОЛЮТНО РАЗНЫЕ СТРАНИЦЫ.
Это подходит для новостников, или для доров под широкий спектр "мусорных" запросов с ударной отложенной публикацией, для других сайтов под быстроботом и с массовой публикацией материалов.
Не знаю, может я из параллельной вселенной, но у меня на белых сайтах ВСЕГДА есть пул лидирующих страниц (не более 10-20% от общего числа), которые ежедневно собирают более 50% трафа.
vastmanager, это сарказм или суровая реальность?
Если все-таки реальность - какова производительность такого генератора? На каком железе?
Вот тут подробно про железо и прочее: /ru/forum/921994
---------- Добавлено 03.02.2016 в 19:19 ----------
Я типа тоже. То, что он описал, под силу только полноценному искусственному интеллекту.
Возможно, что удалось создать более аккуратный генератор бредотекстов, но чтобы вот прямо такие статьи, которые нельзя отличить от написанных человеком... Не, не верю.
Пусть выкатывает на обозрение статью, но чур без ручных правок ☝.
---------- Добавлено 03.02.2016 в 20:35 ----------
P.S. лучший генератор бредотекста из виденных мной работает в Гугл-Ньюс на 3-4 десятках новостных сайтов в разделах "здоровье", "наука и техника", "культура". Но и там присутствием машинной генерации несёт за версту, хотя отдельные тексты получаются просто супер.
Все давно уже создано: https://vesna.yandex.ru/referats/
А теперь значит объясняем это с точки зрения традиционного сео, просто значит наш сайт КАЖДЫЙ ДЕНЬ, оказывается в топе по АБСОЛЮТНО РАЗНЫМ НЕПОВТОРЯЮЩИМСЯ ЗАПРОСАМ , и так нам вот везет что число этих запросов КАЖДЫЙ ДЕНЬ оказывается ОДИНАКОВО.
Так ловко вот оптимизировали мы сайт под неизвестные нам запросы что каждый день по ним приходит одинаковое число посетителей причем запросы мы эти и не знали и не гадали даже и предугадать не можем, но вот число посетителей которое придет завтра по ним мы знаем наперед.
Рассаживайтесь поудобнее, сейчас я вам раскажу про СЕО теорию "блуждающих запросов".
И пофиг что мы запросы эти не знаем и пофиг что я не говорю с какой ПС трафф.
Главное мы их оптимизируем ловко!
Все давно уже создано: https://vesna.yandex.ru/referats/
Яндекс, несомненно, король бредогенерации 😂
[ATTACH]148864[/ATTACH]
сплошная теория.
Минимализм рулит.
Это подходит для новостников, или для доров под широкий спектр "мусорных" запросов с ударной отложенной публикацией, для других сайтов под быстроботом и с массовой публикацией материалов.
Не знаю, может я из параллельной вселенной, но у меня на белых сайтах ВСЕГДА есть пул лидирующих страниц (не более 10-20% от общего числа), которые ежедневно собирают более 50% трафа.
Несмотря на то что вы из параллельной вселенной даже у вас только 50% стабильного трафика по основным запросам, а 50% по запросам которые каждый день меняются, но несмотря на это общая сумма трафика каждый день остается одинаковая.
И объяснить вы это не можете и начинаете прикрываться альтернативными реальностями и
параллельными вселенными.
Или все таки можете предложить какое либо объяснение? Вроде ничего сложного ,а с ходу объяснение никак не находится да? Ну не будем торопиться...тут вон сео-гуру на сео-гуре верхом сидит и погоняет, вот глядишь они и смогут выдвинуть какую нибудь теорию без участия паралельных вселенных.
🍿
---------- Добавлено 03.02.2016 в 23:15 ----------
Рассаживайтесь поудобнее, сейчас я вам раскажу про СЕО теорию "блуждающих запросов".
И пофиг что мы запросы эти не знаем и пофиг что я не говорю с какой ПС трафф.
Главное мы их оптимизируем ловко!
Я вот гляжу вы тут один из самых умных и знающих специалистов, вот и к вам тогда у меня будет совсем простой вопрос, надеюсь вы сходу сможете на него ответить.
Каждый день на сайты поступает трафик из разных поисковых систем, причем в разных долях, например сегодня 50% с гугла, и 50% с яши. Завтра с гугла поступает 30% а с яши 70%. Послезавтра тоже проценты скачут. И так каждый день. То есть по факту можно точно сказать что каждый день на сайт с разных поисковых систем приходит разное количество трафика.
Но вот есть маленькое но. Дело в том что их общая сумма трафика остается одинаковой. То есть если яша по трафику просаживает то гоша вдруг начинает лить много, и наоборот если от гугля трафик падает то внезапно начинает расти с яндекса, если кто сомневается то заходить в стастику ли.ру и просто смотрите графики по трафику первых попавшихся сайтов и сами лично убеждайтесь в этом.
Вот хотелось бы услышать мнение такого знатного специалиста отчего так вдруг происходит?
Не кажется ли вам это странным, что поисковики дают разное количество посетителей но их общая сумма всегда одинакова, чем вы это можете объяснить?
Надеюсь не влиянием паралельных вселенных?
🍿
Минимализм рулит
ключи в столбик, сверху накрыл фреймом.
Гугол хавает, и траф даёт.
shurik0, да и яндекс не брезгует)