- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Проблема в том, что на большую часть страниц нет внутренних ссылок, как я понял.
А если это так, то шансы таких страниц зайти в индекс снижаются. Пока на сайте не будет обычной нормальной навигации, рассчитывать не на что.
Может, вам посмотреть в сторону перелинковки? Поменять шаблон все такое?
Да, смотрим
Klacon добавил 15.09.2011 в 15:58
Проблема в том, что на большую часть страниц нет внутренних ссылок, как я понял.
А если это так, то шансы таких страниц зайти в индекс снижаются. Пока на сайте не будет обычной нормальной навигации, рассчитывать не на что.
Понимаю.
Перелинковку усилим двумя методами:
а) на каждой странице будет стоять ссылка на следующий по счету документ. Это как в блогах: следующий пост... _заголовок поста_. А у нас будет: Следующий документ базы _Заголовок документа_. Метод дубовый конечно, но быстро и дешево.
б) Более интеллектуальный способ - везде где в тексте документа упоминается другой документ - ставим ссылку на нашу страницу с этим документом. Это сложнее, дольше, дороже... но более полезно для пользователей.
Правильно ли я понимаю, что при хорошо сделанной перелинковке ссылки с хороших ресурсов (типа Вики) помогут существенно ускорить индексацию?
Klacon добавил 15.09.2011 в 16:06
как вы собираетесь ставить столько ссылок?
Много ставить не собираемся.
Сейчас робот заходит примерно раз в неделю, скачивает от 150 до 5-10 тыс. страниц за раз.
Я думаю что по ссылкам с солидных сайтов он будет просто чаще заходить и таким образом быстрее все скачает. Собсна в этом и вопрос: это сработает или нет?
Сейчас робот заходит примерно раз в неделю, скачивает от 150 до 5-10 тыс. страниц за раз.
это ненормально. он должен постоянно шерстить сайт.
Я писал Платонам. Добился ответа человека а не шаблонной отписки, общий смысл: "все в порядке, так все и должно быть".
Так что, должен/не должен шерстить, а имеем то что имеем... Увы!
Я думаю что по ссылкам с солидных сайтов он будет просто чаще заходить и таким образом быстрее все скачает.
Не будет. Википедия - это, конечно, очень круто, но это не волшебная палочка.
Насколько это вижу я по своим сайтам - робот часто ходит туда, где каждый день появляется новый контент.
Ну в очень большой теории можно попробовать поиграться с тегами "Document-state" и "revizit-after".
Это реально, но придётся договориться с сообществом Википедии, убедить их в полезности ссылок.
И вы полагаете, что вы такой первый самый умный? 😂
Мне так вообще непонятна политика модераторов Википедии по поводу ссылок. Там масса непонятных ГС живёт (с информацией сомнительной достоверности), зато сколько раз отклоняли качественные тематические ресурсы (без рекламы и прочего). Один раз отклонили портал, единственный по своей тематике, оказалось пару ГС в списке ссылок куда важнее ))
Так что попасть туда ещё надо умудриться
Это реально, но придётся договориться с сообществом Википедии, убедить их в полезности ссылок.
В моем случае даже убеждать ни в чем не нужно. В строго определенных случаях ссылки на мой сайт нужны людям и полезны, более того уже около десятка ссылок утверждены и стоят.
Klacon добавил 15.09.2011 в 22:38
В общем, товарищи, спасибо - толику знаний я почерпнул.
Kost и Cell, вам спасибо отдельно, за информативные ответы.
При таком наплыве ссылок в Википедию - домен будет забанен мгновенно.
Подозреваю, что в итоге тоже самое ждет и ваш сайт в Яндексе.
Вопрос такой: есть сайт содержащий несколько миллионов страниц. При текущей скорости Яндекс его полностью проиндексирует за 15 лет, что как Вы понимаете - очень долго, и хочется ускорить этот процесс.
Есть возможность поставить на разные страницы сайта несколько сотен (или даже тысяч) ссылок из Вики (не нарушая правил Вики).
Повысит ли это скорость индексации Яндексом? и стоит ли овчинка выделки?
Ссылки с Вики - хороший инструмент, но для решения конкретной задачи по улучшению индексации проекта с братской могилой неструктурированного контента что-то типа стрельбы из пушки по воробьям.
Более оптимальное решение само напрашивается - контент необходимо структурировать. Вот не самый лучший пример - http://www.myspace.com/sitemap , можно обратить внимание на батарею ссылок в подвале и, конечно, на карту сайта.
Выстраивание структуры - несложная проблема, просто надо определить несколько аспектов структурирования, желательно совпадающих с популярными темами в поисковых системах. Если проявить фантазию, внутреннюю навигацию (и карту в частности) можно использовать для наращивания внутреннего ссылочного, что позволяет отказаться от большинства других внешних инструментов.