- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте!
Есть проект с 1400 страниц, немного оптимизирован, но если быть точным, насколько это возможно. Построен на Joomla: теги (не на главной, а под стать), небольшие списки материалов по теме под теми же статьями, иногда ссылки в контексте.
Есть двухгодичная статистика li и Google analytics.
Тексты все уникальны, все с картинками.
Проблема в том, что я заядлый Линуксоид и как можно догадаться seo софта под Linux крайне мало. Вот и направшивается вопрос, как грамотно обработать такой объем и выделить релевантные страницы к запросам, чтобы прокачать все это дело по 2-3-4 ссылочки?
Главный вопрос в том, как выгрузить все это дело с релевантными страницами.
Может есть какая-то возможность прокачивать на конечную страницу, а нагнать веса через страницы рубрик (категории в Joomla)?
Сайт, как можно понять, чистый сдл, зарабатывает на Директе и Адсенсе, светить не буду, тут только теория интересует. На данный момент ссылочное небольшое - 150 ссылающихся в сумме 700 ссылок по Вебмастру, естественное.
redbeatles, закажите в этом разделе склепать проект под сапу. В принципе, любой владелец KeyCollector склепает без особых проблем. :)
6uoncuxo3, спасибо за совет! Но для меня это крайняя мера, привык вкладывать душу в такие проекты, это не просто сайт клиента, а мой личный, на самом деле первый проект. Я очень бы хотел все ручками и самостоятельно сделать. Такой уж я человек.
Не отношу это качество к минусам, пока есть время и желание, почему бы и не заняться этим делом. Просто хочу понять как ПРАВИЛЬНО БЫСТРО это можно сделать, если это действительно на 10-ть денй, то да, есть резон заплатить.
А те, кто делаю проект под сапу просто могут отнестись к моему любимому СДЛ как к обычному сайту и подгрузить что-то лишнее и ненужное. Тем более тематика специфическая, с запросами нужно работать, сортировать и т.п.
Я очень бы хотел все ручками и самостоятельно сделать.
KK - тоже не панацея, ручками придётся поработать. :)
Тем более тематика специфическая, с запросами нужно работать, сортировать и т.п.
Всё это можно делать с помощью KK. :)
Установи виртуальную машину.
Ну а туда уже установи винду.
И пользуйся сео проги, кто тебе не дает.
KK - тоже не панацея, ручками придётся поработать. :)
Всё это можно делать с помощью KK. :)
Я тоже раньше все только ручками делал, теперь без КК уже никак не могу, так что только могу посоветовать ТС приобрести эту прогу.
Особенно для описанной ситуации.
Ну если запросы известны загружайте пакетно в сапу, она же даст страницы релевантные по яндексу или гуглу.
Или я что то не правильно понял?
Спасибо большое за ответы! Особенно AndyM.