Вручную на каждую страницу вставляли? 😂
А на дворе тем временем 2022 год...
Вы только потом не нойте, почему у вас доход с рекламы фиговый и позиции в ПС у дна.
У кого не азы вебдизайна, а хотя бы базовые основы, у того каждая страница индивидуальна и реклама должна быть в уместных местах.
Это вопрос не только лени, также гарантий. Джанго и вордпресс - безопасный код, поддержка, завтра не сольется. У людей проекты, которые их кормят. Никто рисковать не будет.
С оплатой? Если без, найдете только лоха.
Продвижение проекта, каким бы золотым он на деле не был, это отдельная история. Никто не будет им пользоваться, пока не увидит очевидные для себя преимущества и сообщество.
За три года можно было навалять несколько демонстрационных сайтов с примером использования фреймоврка, создать сайт с описанием ваших библиотек, процесса разработки, организовать обсуждение проблемных мест.
Я эволюционировал от использования движков в сторону фреймворков и сейчас верстаю сам.
Почему?
Потому что каждый сайт индивидуален, каждая страница уникальна. Нужна гибкость.
Изучать особенности фреймворка - это время, нервы и конфликты при тонких допилах.
У меня яндекс вынес один сайт из РСЯ. И недавно на один наложил МПК.
Сайты не так плохи. Тот который из РСЯ был продан и другой вебмастер туда обратно его вернул. Но у меня есть лучше. И если бы яндекс сказал: "Сам выбери, что оставишь, что снесешь". Именно эти я бы и снес. Если это фильтрует алгоритм, то работает он отменно.
Т. е. можно сделать вывод: яндекс чистит интернеты. В том числе вынуждая вебмастеров заниматься одним сайтом, а не делать сетку похожих.
Не получили никаких фильтров сайты на полном копипасте. И даже прямые дропы, т.е. сайты полностью сдертые с официальных, вместе с файлами, стилями и т.д. Но действительно продающие данный продукт. У меня не получил фильтр ни один ИМ, а они почти все наполняются парсингом или из файлов экспорта поставщиков. И не вижу что бы другие упоминали.
А на них ощутимый трафик хотя бы есть? Яндексу нужны данные для анализа. Нет трафа, нет данных.
Там критерий больше из области "пользователи не находят искомого на сайте (товар, информацию) и уходят обратно на выдачу". Хоть суперкопирайт на сайте. Но он не несёт пользы пользователю.
Это точно не единственный и вряд ли основной признак попадания под МПК. Другие сайты при тех же показателях не выкашиваются, если не были заточены под сбор поисковых запросов и написание под них статей. Вместо этого выдерживают тему и раскрывают ее вглубь независимо от запросов.
А МПК по вашему что как не плагиат или легкий рерайт.
Это все хорошо, но каким образом авторы текстов должны доказать, что тексты их? Верить на слово никто не будет.
Во первых доказывать он не должен. Это если по его мнению кто-то спер, то можно пойти в суд и доказать в процессе судебного разбирательства.
Время выгрузки на хостинг, момент индексацией ПС, наработки. Думать не надо, что статья журнального уровня, исследовательского и аналитического пишется по памяти за 2 часа. Там сопутствующие файлы идут, дата создания на диске. И вот со всем этим допустим я приду в суд. Вы с чем придете, если сделали только копипаст? Я приду как специалист в теме, вы - как кто? Вебмастер? Адвокат вызовет эксперта. После этого у кого-то останутся сомнения, кто у кого спер?
Другое дело когда пишут по пузату или статейки в дзен. Тут только предохраняться можно качеством сайта. Но опять же качество в современных реалиях - это поведенческие, возврат юзера. А возвращается он только к полезному ресурсу и экспертному мнению.