- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте форумчане.
Нужен совет по поводу переноса магазина на движок opencart с Modx. Может кто уже пробовал переносить? Или есть опыт работы на этом движке. Какие главные особенности и проблемы могут возникнуть при переносе сайта? На что обратить внимание? В общем полезны любые мысли по этому поводу.
В общем главная задача сейчас, это сохранить структуру сайта и не потерять позиции в выдаче.
С модикса, думаю проблем перенести не будет. Движок нормальный, по обслуге недорогой, функциональный. У меня несколько магазинов на нем уже несколько лет.
Перенести возможно с сохранением урлов. Если там было ЧПУ то вообще супер.
Есть ребята, у меня переносили сайт, правда не с модыкса, могу подогнать.
С модикса, думаю проблем перенести не будет.
А как с дублями? Проблем не будет?
А как с дублями? Проблем не будет?
Если сразу все делать правильно, то не будет
например,
ocStore (opencart, русская сборка, более адаптирована к SEO)
+ несколько seo модулей - seogen, seopack, deadcow - на выбор
+модуль обратного звока, +купить в один клик
Если требуется фильтрация - simonfilter, brianfilter, filterpro - каждый имеет и плюсы и недостатки
Дальше могут понадобиться различные модули, - все зависит от хотелок
Например - блоги и новости, (встроенная система статей - очень слаба)
Различные модули "раскрашивания" - стикеры, счетчик обратного отчета, карусели и прочее.
Я большую часть делаю на опенкарт, проблем как таковых не вижу ни с дублями ни с заполнением или каким либо переносом, все гут, только хорошенько нужно настроить роботс и тогда никаких проблем не будет.
неужели robots.txt панацея от индексации?
Если вы заглянете в роботс, то увидите
Disallow: /catalog
Disallow: /download
Disallow: /system
Вы видели в ОС такие ссылки?
Я ни разу.
роботс - всего лишь рекомендация не ходить, не индексировать. Но ни как не защита от дублей.
Защита от дублей - правильная настройка на этапе запуска проекта + правильная работа seoрерайтеров систем, которые должны отдавать однозначный ответ url.
А как с дублями? Проблем не будет?
Не будет.
проблема будет наполнить и раскрутить :) Нужен будет профессиональный труд и, кроме этого, деньги :)
Защита от дублей - правильная настройка на этапе запуска проекта + правильная работа seoрерайтеров систем, которые должны отдавать однозначный ответ url.
У меня сейчас после фильтрации к адресу обычной страницы добавляется "?sort=p.price&order=ASC&limit=25" что это такое?? Оно будет индексироваться?
---------- Добавлено 07.11.2014 в 01:36 ----------
Не будет.
проблема будет наполнить и раскрутить :) Нужен будет профессиональный труд и, кроме этого, деньги :)
Так сайт уже есть и наполнен, я же его переношу на другой движок в индексе 1200 страниц, вот и переживаю за дубли уже существующих страниц, а не за наполнение))
---------- Добавлено 07.11.2014 в 01:46 ----------
неужели robots.txt панацея от индексации?
Просто в Modx это решалось именно в robots.txt и все. Может подскажите поподробнее.
1. Фильтрация не имеет ссылки - фильтрация через <select>
Но я заметил, что такие ссылки попадают в индексацию
index.php?route=product/category&path=20_27&sort=p.sort_order&order=ASC
2. Для этого требуется немного шаманства в шаблоне, и в скрипте onchange
3. в роботс закрыть ссылки такого вида, в стандартном роботсе они прописана в disallow
4. Есть еще несколько нюансов, по уменьшению, ссылок, например ссылки на логин, регистрацию, закладки, сравнения, корзину. Именно те которые не участвуют в поиске, но находятся в активном доступе.