- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
akhasanov, достаточное количество адекватных пользователей не наберете. Да и вообще, сомневаюсь, что осилите такой проект :)
Техническая сторона проекта примитивна. Вопрос именно в привлечении пользователей.
farlow, методика интересная, только пока не увидил более-менее приемлемой ПРАКТИЧЕСКОЙ схемы, как это делают и косят на этом :)
А вот уже на основе этой схемы можно заботится о качественном преобразовании контента для уникализации ;)
Может здесь есть на форуме пошаговый практический материал о посторении такой "косилки" на саттелитах? :)
А про блогорамы, фермы и т.п. читал немножко, но это во-первых просто скрипт, во-вторых это не совсем схема или образец для построения собственных скриптов для этого...
А ведь это достаточно просто ;)
Это же касается и генерации статей (описаний). Т.е. статья разбивается на тематические абзацы (в общем, похвалить, сравнение, вопросительное, описание и т.п.). Абзацы на правильные предложения-шаблоны. Предложения нарубаются на связные смысловые промежутки. После чего заготавливаются смысловые промежутки, где слова связываются тематикой (см. ниже). И потом уже идет генерация.
Как пример и можно брать: http://www.armadaboard.com/topic17101.html
Типа:
Длинноногая страстная брюнетка, с роскошными длинными волосами, карими чувственными глазами и потрясающими большими сиськами.
<какая плюсы> <какая плюсы> <кто>, с <описание с>, <описание с> и <описание с>. (шаблон: вариации(<какая плюсы>, 1 или 2) рандом(<кто>), и т.п.)
Где <описание с> тоже самостоятельная единица (кирпичик):
<какими> <какими> <чем>
однако тут тоже нужны связи (описания) т.к. "с карими длинными сиськами" будет звучать как перл.
И после составляются правильные правила: типа после абзаца описания может быть вопросительный, а может быть сравнение.
А генерация не разрабатывают массово, так как универсальности добиться очень сложно: надо затачивать под конкретно какую-нить тематику. Но генерировать можно.
censored!, ну да. Сотню-другую более-менее уникальных текстов сварганите. А дальше - повторения, совпадения кусков и пр.
Любое предложение - это уже совпадение кусков. И, возможно даже будете удивлены, букв! =)
А предложений - великое множество. И им тоже есть предел.
Но заранее заготовив предложения-шаблоны, шаблоны-связки, готовые правила генерации абзацев количество вариаций будет ооооочень много.
censored!, пробовали?
Пока схема, описанная выше, не выходит за сложность обычной линейной генерации.
Другое дело, если по данной формуле можно будет искать другие тексты и сопоставлять их с нашим, набирая смысловые части. Т.е. задача не получить новый тип генерации контента, а минимизировать работу по составлению кода генерации. Причём примерно половину работы дадут синонимы и морфологический анализ текстов той же тематики.
А что если сделать систему рерайтинга а-ля translate.google.com, которая бы самообучалась на основе рекомендаций пользователей. Что об этом думаете?
akhasanov, достаточное количество адекватных пользователей не наберете. Да и вообще, сомневаюсь, что осилите такой проект
проекта примитивна. Вопрос именно в привлечении пользователей.
Эх, жаль, что Zonk просил ничего не говорить, до времени...
;)
Суть алгоритма по уникализации и генерированию текстов проста, поэтому рискну предположить, что нам недолго осталось ждать, пока поисковики накопят необходимую базу синонимов по различным тематикам для того чтобы научиться определять схожесть текстов, генерённых по шаблону. Каким бы хитрым ни был шаблон - шаблон остаётся шаблоном, даже если он имеет различные вариации - это всё теоретически возможно вычислить. А из массива текстов, имеющих похожую лингвистическую и смысловую структуру несложно выделить первоисточник - by default, первый по времени размещения текст. То же касается любого рерайта - алгоритмически вычислить % смысловой схожести текстов теоретически возможно. Ценность же любого текста для читателя, а следовательно, со временем и для ПС - не в уникальности по формальным признакам (разнообразие форм для одного смыслового содержимого), а в уникальности по смысловому содержимому. Таким образом, будущее полнотекстового поиска (если этот вид поиска не будет вытеснен другими видами поиска, которые могут оказаться удобными в использовании) мне представляется в определении уникальности по смысловому содержимому и формировании серпа именно из максимально различного смыслового содержимого.
Т.о. при действующих алгоритмах ПС, если реализовать п.6, предложенный ТС, то конечно, это наверное, будет комплементарно как вилка (система ТС) и розтка (поисковик). Но подвох в том, что ведущие поисковики относительно быстро развиваются, и если когда-нибудь где-нибудь некое подобие искуственного интеллекта и родится, то это скорее произойдёт во чреве поисковых систем, где для этого имеется наиболее благоприятная среда (базы, интеллектуальные ресурсы, финансовые ресурсы, и т.д.)
Резюмируя: мне кажется, в долгосрочной перспективе (несколько лет) идея уникальности смысла должна получить в ПС гораздо более весомый приоритет перед идеей уникальности формы.
Если это действительно так, то направление автоматизации в создании текстов должно утратить актуальность, и напротив - возрасти роль человеческих мозгов, т.е. именно тех их особенностей, которые никакими скриптами невозможно автоматизировать (например, мышление, креатив... :) )
P.S.: Сорри, если баян, просто настроение философское сей топик навеял.
Danilov, оО, ну сначала нужно сделать рабочий генератор/уникализатор :) А так безусловно, поисковые мощности будут брошены в сторону антизамены :)
P.S.: Сорри, если баян, просто настроение философское сей топик навеял.
оО И умрет человеческий фактор, и накроет мир сей поиска автоматизация :):):)
Аминь
зызы можно будет авторам текстов заказывать писать материалы в определенном духе/стиле/падежах, чтобы легче было потом генерировать xD Пишется человеком шаблон по определенному алгоритму и генерируется на автомате, множится :):):)