- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Здравствуйте.
Хотел бы узнать по поводу поисковой оптимизации новостей(постов) на сайте http://webpark.ru
посмотрите пожалуста у кого есть желание, что сделано неправильно, т.к. на мой взгляд посетителей с поисковых систем(Яндекса) должно быть больше(оценивая сайты такой же тематики) :(
Ещё, конечно же, интересует, что сделано верно.
На все вопросы по теме с удовольствием отвечу.
Спасибо.
HitMan_ru, По каим запросам вы ожидаете большое количество посетителей?
Как часто вас посещает робот?
Как глубоко он заходит?
Как Вы сами оценивате, сайтом удобно пользоваться? (это не о продвижении а воще)
Код оставляет желать лучшего.
Вы знакомы с такой штукой, как валидатор?
Если не знакомы:
http://validator.w3.org/check?uri=http://webpark.ru/
http://users.skynet.be/mgueury/mozilla/
Код оставляет желать лучшего.
Вы знакомы с такой штукой, как валидатор?
А Вы можете показать, что не так с кодом, хотя-бы на нескольких примерах, чтобы было понятно!?
Есть стандарты. И их надо придерживаться. Чтобы узнать, что в Вашем коде не соответствует стандартам, и придуманы валидаторы (см. ссылки 2 поста наверх). Код, максимально приближенный к стандарту, вызывает меньше конфликтов с браузерами, отличными от того, под который собственно и делался сайт (IE6, подозреваю), да и помогает избежать головной боли в некоторых случаях (когда вроде все написано правильно, а работает криво - надо писать не "вроде правильно", а по стандарту). В конце концов, валидный код - признак хорошего тона.
Например: когда Вы пишете <a href="something.html">ссылка</a> надо адрес в кавычки. Когда Вы пишете color=#000000, значение цвета надо брать в кавычки.
Когда Вы пишете <script language="javascript"> указывайте также атрибут type="text/javascript", то есть пишите <script type="text/javascript" language="javascript">
Добейтесь, чтобы валидатор выдавал как можно меньшее количество ошибок (в идеале - чтобы их не было).
Для начала можно преобразовать УРЛы, чтобы вместо http://www.webpark.ru/comments.php?id=9405 выдавало http://www.webpark.ru/comments-9405.html, например, это позволит выжимать больше по низкочастотникам.
T.R.O.N, нет определённых 1-2х словосочетаний по которым мы хотели бы вырваться вперёд.
Тут идёт выход по титлам из новостей, если их так можно назвать. Или же по повторяющимся словосочетаниям из них. По сути как и новостные сайты.
Точную статистику привести не могу, но если не ошибаюсь с запуском “малого” Бота – ежедневно. Объёмы “проглатываемых” им страниц – разные.
По поводу глубины сказать могу одно – любая страница(новость) доступна полностью через 2 перехода, т.е. клика. Не думаю, что это глубоко, если я правильно понял вопрос.
К этому варианту мы шли долго, учитывая пожелания посетителей. Отказались от меню с разбиениями по разделам, хотя таковые есть. Если интересно, то могу рассказать почему.
Клесс Антон , полностью с Вами согласен по поводу кода. Когда я начинал писать код, то не знал про валидаторы, а с момента начала разработки двига уже больше 1,5 лет.
Недавно на одном проекте столкнулся с тем, что невалидный html код приводил к сбою в IE 6 без SP, всё из-за отсутствия - type="text/javascript", если не ошибаюсь.
Сейчас стараюсь писать валидный код, но до сих пор не знал, что это хоть как-то влияет на поисковики. Сильно влияет?
Коля Дубр, спасибо за второй линк, с первым знаком.
Offshore, спасибо. Про псевдостатику знаю давно, останавливает боязнь перед полной переиндексацией сайта. Или это не так страшно как мне кажется?
Без переиндексации не обойтись в данном случае. На какое-то время (зависит от количества и качества входящих ссылок) трафик с поисковиков значительно упадет. Тут уж даже и не рискну советовать, стоит ли оно того учитывая, что на сайте множество страниц, а поисковики нынче более-менее хорошо работают с динамикой. Как вариант, можно поэкспериментировать с одним из разделов.
Offshore, ага, вот этого я и боюсь. На мой взгляд хорошо и динамику индексируют, тот же гугл есть, хоть и мало.
А разбиение по разделам убрали, не знаю как и с чем можно провести эксперимент :(
Спасибо за развёрнутый совет и мнение.