- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Друзья, делаю сервис, результатом работы которого будет вычленение из длинных текстов определенной структуры. Т.е. на вход подается длинный и сложный текст, например, из сотен страниц, а на выходе получаем структуру, состоящую из множества мелких кусочков - внешне похожую на карту сайта. В результате посетителю беглого взгляда будет достаточно, чтобы понять о чем речь в этом длинном и сложном тексте.
Но вижу потенциальную проблему с точки зрения СЕО: в результате будет много страниц с небольшим количеством текста. Как к этому отнесутся поисковики? С одной стороны множество таких мелких страниц они не очень любят, но с другой стороны тесты показали, что это очень и очень удобно для человека - с одного взгляда охватить сложнейший и длиннющий текст.
Так на кого лучше ориентироваться - на посетителей или на поисковики? Что посоветуете? Пока склоняюсь к тому, чтобы послать поисковики в "сад"... Так как результаты весьма интересные получаются и не хотелось бы функционал урезать.
Что такое большой текст? Что такое мелкие страницы?
Что такое большой текст? Что такое мелкие страницы?
Большой текст - 10-100 страниц формата A4.
Мелкие куски (они же будут страницами) - пара-тройка предложений, но не все, конечно, они в целом будут разношерстными по объему, но мелких все же будет весьма много. Можно н, конечно, в угоду поисковикам не детализировать структуру слишком подробно, но это резко снизит пользу сервиса. Да, забыл упомянуть - с заголовками всё будет хорошо, более чем.
сервис делается для посетителей? значит и ориентироваться надо на них.
сервис делается для посетителей? значит и ориентироваться надо на них.
Я тоже к этому склоняюсь. Сначала думал всё идеально заточить под поисковики и хотел отказаться от детальной структуры, но... гляжу на результат и понимаю, что подробная структура получается архиудобной - всё лежит как на ладони, что посетителям съэкономит массу времени.
Сделайте так:
Сверху содержание (с якорями) страницы (не забудьте бектутоп)
А дальше под катами нужные Вам тексты
Зависит от того, о чем и для чего сайт. По некоторым нишам регулярно встречаю сайты в топе, где мало текста, а по другим только километровые. Я бы ориентировался в первую очередь на удобство пользователей. В конце концов, дополнить потом всегда можно.
Сделайте плавающий сайдбар с якорями, который будет всегда под рукой. А сами фрагменты разбейте высокими отступами. Примерно как в спецификации Бутстрап. Ничего удобнее не придумали. ;) Вообще не очень понимаю удобства, когда надо постоянно тыкать и переходить на другую страницу.
Второй вариант - убирать под кат.
Но вижу потенциальную проблему с точки зрения СЕО: в результате будет много страниц с небольшим количеством текста.
Так вы эти мелкие кусочки выводите не на разных страницах, а на одной. Вариант с сайдбарами, предложенный выше, как раз подойдёт.
Спасибо за подсказки. Рассматриваю все варианты.
Объединять кусочки в один кусок побольше и в рамках получившейся страницы делать локальную навигацию - это первое решение, приходящее в голову, но... оно нетривиальное в плане реализации, ведь всё будет происходить в полностью автоматическом режиме.
Важность каждого кусочка не всегда просто автоматически точно определить.
Но самое главное, каждый кусочек, даже маленький, является функциональной и в общем то самостоятельной единицей, которая может участвовать в связях с другими единицами, может обрасти некоторой метаинформацией и т.д. Это же сервис по сути будет. А такое искусственное огрубление внешней детализации при сохранении внутренней (логической), боюсь, приведет к излишнему усложнению и запутанности.
Рассматриваю пока такой вариант: те элементы, которые по формальным признакам будут иметь плохой заголовок (это в моем случае можно примерно автоматом вычислять - дублирующие, очень короткие и т.д.), то у таких страниц будет автоматом проставляться метатэг noindex. По крайней мере, это имхо самый простой вариант, не требующий представлять структуру в разных видах (с разной степенью детализации).
А страницы Вы откуда собираетесь брать? Грубо говоря - загрузил сам диплом и получил его в разбитом виде, что ли? Не уловил суть самого сервиса, для кого он?