Это норма
Отношение Гугла к поддоменам неоднозначное. Если на основном сайте присутствует контент, а не какая-нибудь заглушка, если дизайн, структура и код на поддоменах очень похож на таковые на основном сайте, то в большинстве случаев Гугл не станет считать сабы самостоятельными сайтами, а будет воспринимать их тупо как папки, даже если они не лежат в корне сайта.
По запросу через оператор site:example.com ты увидишь страницы и поддоменов в том числе.
Чтобы Гугл счёл саб самостоятельным сайтом, он должен иметь значительные отличия от основного ресурса. Погугли, гуглоиды, насколько я помню, не раз давали комментарии по поводу неразберихи с сабами.
AESCBC192, без обид, но ты порой просто убиваешь своими амбициями. X-Parser (также как и "Пингвин" от этого же разработчика) - это добротный софт, доказавший свою эффективность годами. Он не нуждается в пиаре)))
Ты же в своих мыслях уже сравнил его со своим виртуальным аналогом, играючи превзошел, растоптал и развеял прах по ветру 🙄.
Что сравнивать-то? Рабочий софт и твою разработку, существующую где-то в потаённых уголках твоего воображения? 🤣
Ой не верю! Фуфел всё это...
Чтобы получить по заданному ключу без копипаста уникальный, осмысленный и морфологически верный текст, придерживающийся правил грамматики и, страшно подумать, пунктуации, нужен полноценный искусственный интеллект.
Хоть ты получи сейчас ресурсы Гугла в своё распоряжение, не смог бы ничего достойного слепить, даже на уровне школьного сочинения 8-классника. Уверен, почему-то)))
А вот этот архиважный момент?
Топпер тоже говорит, что в ближайшее время ждать от нейронок осмысленных текстов не стоит.
Ну так бы и сказал сразу. Мол, пока ничего не выходит и когда выйдет - не знаю. А то загрузил народ, понимаешь, десятками шибко умных терминов из кибернетики, математики и (внезапно) офтальмологии, чтобы показать в итоге мешанку из овер-длинных и ни разу не уникальных предложений.---------- Добавлено 28.01.2017 в 18:43 ----------
Вау, нейросрач детектед 🍿 🍿
Нет, жонглировать кусками напарсенной текстовки можно любым доргеном безо всяких там нейронок. Изначально, с самого первого твоего поста я считал, что ты собираешься создавать новый контент по заданному ключу при помощи нейронных сетей. Новый, понимаешь? Пусть не особо читабельный и осмысленный, но не вызывающий хотя бы рвотных позывов.
Чтобы юзер, увидевший такой текст, подумал: "Что за долбанный неграмотный колхозник это написал?", а не "машинный бредотекст".
В твоём примере есть точные 20-словные совпадения... 20-словные, Карл, на куске текста в 30 слов!
[ATTACH]159790[/ATTACH]
Да, он вполне читабельный. Если тянуть не отдельными предложениями, а целыми абзацами, то вообще персик получится. Но если я не ошибаюсь, ты говорил о генерации при помощи нейронных сетей уникального и читабельного контента? Нет? Уникальность твоего текста стремится к нулю.
Ну дак может не изобретать велосипед, а целиком статьи копипастить?
Поищи тут в дорвейном разделе появлялся некий товарищ Basil - он долго и упорно пытался найти средства на разработку скрипта, который будет составлять тексты из кусков скопипащенных статей с топовых сайтов в выдаче Гугла. Потом он вроде этот скрипт всё-таки доделал. Кричал, что тексты получаются просто супер, что сайты не банятся, что можно даже Адсенс ставить. Скрины дохода или хотя бы индекса так и не показал, а потом вообще пропал.
AESCBC192, почему не вставил текстом? Думаешь, скрины удобно анализировать? Ну это же просто мешанка из полностью и дословно скопипасщенных предложений? Чем этот текст лучше, чем то, что показывает ВастМенеджер, например? Навскидку, здесь нет ни единого по-настоящему сгенерированного предложения. Нейронки то, нейронки сё, а по сути очередной пук в лужу...
[ATTACH]159781[/ATTACH]