Комрады, нужны советы - что-то с тексовками запутался.
В папки /text лежат файлы с текстами. Делаю доры используя разные методы генерации - карл маркс 3-5, панченко, по предложению...
После генерации получается, что одни и теже куски текста (рендомно проверял) встречаются на одном и том же сайте десятки раз! Потом еще и на следующих дорах появляются те же фразы десятки раз! Т.е. как бы получается сайт "пестрит" дублированным контентом...
Что я не правильно делаю?
1) Может текста маловато на входе? В таком случае, - какая в среднем пропорция текста необходима? Если, к примеру, дор на выходе весит 100 MB (там практически один тект, без картинок) - то сколько текста нужно на вход? - больше 100MB или можно гораздо меньше? (генеренка ведь стоновится уникальной)
2) Можно ли как-то сделать, что бы текстовка (предложения или сами шиллинги) после первого же использования удалялась из текстового файла? или использовалась только один раз на дор? (тогда, конечно, текста на вход нужно будет гораздо больше).
3) Или какие еще рекомендации - что можно сделать, что бы текстовка на выходе была уникальной в рамках данного дора?
Есть мнение, что Земля то не круглая, а плоская, как блин! И полеты в космос, и все эти МКС - все это фейк. Ролики на ютубе посмотрел, волосы на голове зашевелились!
Отправлено с моего HUAWEI GRA-L09 через Tapatalk
Топпер тут скидывал ссылку на пример шаблона, но сейчас эта ссылка не рабочая. Может кто-нибудь, пожалуйста, еще раз здесь разместить - как полученный при гененрации контент (текстовку, заголовки h1,2 и т.д ) импортировать в WP?
Эх... если бы я знал. Точно не ручной фильтр, на вебмастер ничего не приходило. Возможно что панда, а может и пингвин - грешил и ключевиками, и ссылочки мигали. Но сайт почистил, дизавов отправил.
Кстати, не знаете, сколько реакции на дизавов ждать?
Нет, не уверен. Скорее уверен что фильтр не снят, раз сайт еще на 12 странице.
Но просто думаю может кто-то сталкивался с таким, скажет мол, чувак, тебя гугл любит, поднажми еще чуток и все вернется : ))
И еще такой вопрос, как, например, в сайдбаре выводить что-то на подобии Архива публикаций по месяца (пусть и с ссылкой на рандомную категорию), типо:
АРХИВ:
Декабрь 2017
Январь 2018
Февраль 2018
а потом, начнут появляться:
Март 2018
Апрель 2018
и т.д.
?
Хочу сделать 20-30 посадочный SEO страниц, c мулти-кеями внутри.
А так же отделньо типо блог, в котором будут обычные Cats и Post имитирующие блог посты.
Как бы вы посоветовали это реализовать?
У меня напрашивается варинат через макрос {STATIC-landing-page1.html} {INSERTKEYS-(key)}..text..{/INSERTKEYS}{/STATIC}
но там муторно получается 20-30 таких страниц таких подготавливать.
Может еще как то можно?
Вот придумал, например, один раз сделать генерацию, сделать лендинги, а затем отдельно, еще раз сгенериировать, но теперь уже блог-посты
Люди!
Как вы загоняете страницы в гугл? Кроме хрумера и адуилки есть еще какие-нибудь народные варианты?
Какой уникальности текст (например, по text.ru) лучше всего кушается поисковиком? Если после мешанки 100% уникальность - не подозрительно ли это?
TC - удачи в марафоне! Буду следить за успехами!
Могу поинтересоваться - как вы загоняете страницы в гугл? У меня что-то последнее время с этим совсем туго.
Я на европейские страны иногда просто перевожу статьи, заходят в гугл и одна даже в топ 1 залезла страничка. Но там у меня фактор, правда, что люди текста эти ее читают, их интересует то, что стоит над текстом (сравнительная табличка).
Перевожу, кстати, в яндекс транслейт, ибо, (может это и паранойя,) думаю что в своем переводчике гугл может расставлять какие-то признаки в тексте, что потом сам понимает, что это авто-переводной текст.
А вообще, если вы планируете что вас будут читать реальные люди, и на основании текста прочитанного будут конвертироваться, то конечно нужен человеческий перевод. Если это только для бота, то сойдет и авто транслейт, имхо.