- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Определенно, большинство на этом форуме юэает вордпресс.
Определенно, большинство на этом форуме юэает вордпресс.
большинство юзают вордпресс)))
1. Скорость работы движка, кешенирование.
2. Наличие автогенерируемой sitemap с объективной датой изменения документа, а не временем сервера.
3. Изначально настроенный last-modified
4. Отсутствие в движке врожденных косяков дублирования контента
Вот и залоги успеха нормальной индексации сайта. Для коммерческого использования я бы советовал Diafan.
Лучше самописного движка, оптимизированного под свои нужды, еще никто не придумал.
Лучше всего индексируются сайты на том движке, в котором вы разбираетесь. С прямыми руками можно настроить любой движок, чтобы он не плодил дубли, генерировал карту сайта и т.д. Разумеется, идеальный вариант - это самописное двигло, в котором не будет абсолютно ничего лишнего и все будет подогнано под ваши нужды.
По-большей части очередной флейм. Потому предложение, перечислим важные для обеспечения хорошей индексации моменты, а гуру в своих движках прочекает по показателям присутствует / ставить модуль / пилить кодером.
Мой список, добавляйте:
1. Обработка слешей, чтобы "урл/" и "урл" не были разными страницами
2. Редирект с неЧПУ на ЧПУ
3. Редирект с site.ru/index на site.ru/, сюда же www и без-www
4. Отдача правильных ответов при 404 (site.ru/12312dew3.htm чтобы не отдавала "200 ОК")
5. Sitemap.xml
6. Robots.txt и ссылка в нем на sitemap
7. Пинг (для уведомления ПС о появлении или обновлении страницы)
8. Last-Modified (для экономии ресурсов робота, страница без изменений не переиндексируется)
9. Кеширование (для быстрой отдачи страницы)
10. Валидный код (для быстрой интерпретации роботом)
11. Тяжесть файлов и общения с БД (чтобы не валил сервак)
На каком движке сайты лучше индексируются ПС ?
вам надо в дрвейный раздел, самые изощренные средства автоматизации сайтов, нацеленные на индексацию, обсуждаются наверное там.
Конечно зависит.
Движок - это совокупность скриптов. Я не просто так эту теоретическую блевоту пишу. Для примера берём два типовых популярных двигла, Wordpress и Joomla. Оба популярны. У Jooml'ы вечная проблема дубли страниц. Хз как сейчас, я уже давно свои на php пишу под задачу, но копните форумы по версии 1.5, так и есть. Второе, это "тяжелый" двиг джумлы.
Что мы имеем исходя из этого: дубли страниц - худшая индексация. Индексация это как поисковик включает страницы в индекс, с какой скоростью (количество страниц за проход). Много дублей - плохая индексация, ведь ресурс ограниченный и вместо 300 новых страниц, робот проходит по 200 старых или дублированных, и 100 новым. Индексация 33% от прохода. Прикинь количество страниц и раздели на 3. За ап включит 100 новых страниц и жди 30 апов для полной индексации. Сейчас ап в среднем 2-3 недели занимает, так что считай. Надо избавлять от дублей и обязательно sitemap.xml с датой последнего обновления страницы.
Касаемо веса, это удобство для пользователей. Понятно что мы не знаем всех факторов ранжирования и их наверняка великое множество, так как сайты разнообразны. Но надо хвататься за каждую крупицу (устоявшийся фактор). Мне ускорение сайта помогло, без ссылок траф вырос до 4к хостов в прошлом году. Зацените скорость http://joysea.ru
Выходит что Wordpress намного лучше в плане индексации, чем Joomla.
У любого типового движка главный минус это универсальность. Под ваши задачи половина функций не требуется, но они подтягиваются в стандарте. Это если не критично, то важно для серьезных и нагруженных проектов.
Но если вы задаете такой вопрос, то ставьте любой и не парьтесь, вряд ли вам видать серьезных результатов. Ну а если проявите усидчивость и вникните в тему, то потом сами всё поймете и переделаете как надо.
И персональный совет для argo87, не слушайте советчиков как пример выше, пробуйте по своему усмотрению. Чье-то мнение всего лишь мнение. Если не дают аргументов, а задают вопрос в очевидном тоне, но тема не очевидно, фильтруйте. И въебите минус заодно, для них это важно )))
Чет не увидел у вас посещаемости в 4000 ч. Максимум 3 человека )))🤪
Чет не увидел у вас посещаемости в 4000 ч. Максимум 3 человека )))🤪
В чем угар? Расскажи, вместе угарнём.
Кстати, судя по твоим заявленным знаниям, мы можем хорошо сработаться по теме туризма.
Зависит от того, как настроена CMS, а не от её название.