- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну страницы не на 100% уники - конечно. Над сайтом работаю постоянно.
Просто там большой ассортимент разбит на 30 категорий по 10-15 продуктов.
У продуктов в этих категориях есть текстовый блок характеристики - они совпадают, что мне на каждом продукте переписывать их ? Это же статистическая информация или скрыть это от ПС? + похожие title и мета описания у продуктов.
Скрывать товары от ПС?! Зачем?
Сгруппируйте похожие товары - те, что отличаются только цветом или весом, но одного бренда, одного типа и сделайте одну страницу для группы. Страниц будет меньше, но их качество возрастет - будет больше информации на странице, меньше дублей на сайте.
То есть дубли и прочая ересь про некачественный контент тут не при чем, а дело в ссылках?
Алгоритм по определению основных страниц,строится как и алгоритм пейдж ранк. Так как оба эти алгоритма присваивают вероятность перехода на данную страницу, как в интернете, так и внутри сайта. Т.е. это где-то 60% влияния. Дальше подключаются другие факторы.
Если мы говорим о внутренней линковки сайта при условии что весомые ссылки идут на морду, то например пагинации будет присвоено большая вероятность, чем странице 3 уровня. Или если сайт со слабым статическим весом и страница где-то допустим на третей странице пагинации на морде, а из раздела на второй - то самой статье будет присвоена очень слабая вероятность. Для этого и линкуют страницы :)
P.S.
Уточните про некачественный контент - что вы имели ввиду?
Если упрощено - чем больше кликов от главной (при условии, что ссылочная масса идет на главную), тем меньше вероятность попасть в основной индекс, верно?
Уточните про некачественный контент - что вы имели ввиду?
Я про то, что большинство считает, что в дополнительный индекс попадают страницы с дублированным или малым количеством контента. Я же вижу, что в основном индексе есть куча страниц с одним предложением текста или копированным контентом.
Доброго времени суточек :)
Хотел узнать почему у нового сайта ( сделали пару месяцев назад ) - дизайн обыкновенный + норм контент. Всего 300 страниц. Заметил то что очень много страниц в соплях почти 80% - показал 25 страниц норм. Тематика - стройка. Главное - эти 80% страницы продукция компании.
Проверял запросом site:site.ru/& - он еще работает?
Ссылок вообще нету - никаких сап и т.д. Дублей тоже.
Что за дела такие ?
Если дублей действительно нет, то попробуйте банальной загрузкой карты сайты.
Если не помогает - возможно поможет прогон по закладкам (предвижу срач 😡 ). Мне когда-то создание HTML карты и прогон этой страницы по закладкам помог (только не более 200 ссылок). Влетело в индекс за 2 дня.
Если боитесь прогонов или нечем это делать, то можно попробовать каждую страничку из соплей в google+, twitter и FB - но геморно
Влетело в индекс за 2 дня.
Страницы топикстартера итак в индексе, просто в дополнительном. За низкое качество и вес.
Если упрощено - чем больше кликов от главной (при условии, что ссылочная масса идет на главную), тем меньше вероятность попасть в основной индекс, верно?
Да. Так же подходит и для сайта без ссылок. Причем если и попадет то ее ранг будет очень низкий. Например, грубый пример, для наглядности: морда пр3 - разделы и пагинация - 2 - статья 1 (обычно это округленный) т.е. имеет слабый ранг.
Если же ссылочная масса рвет структуру сайта, например определенные страницы, разделы и т.д. То уже ситуация иная и линковка должна быть другой. Короче все индивидуально, впрочем как всегда :)
Очевидно, что уникальность и полезность и линковка играют свою роль. Но, согласном моему опыту, тут немного иная гипотеза рисуется:
- мой новый сайт гугль слопал за 10-12 дней ~20К страниц
- в соплях было все, кроме 2-3 страниц вместе со стартовой
- через время в основной индекс начал добавлять страницы, грубо, за 1 неделю добавил 200+ новых
Думаю ситуация следующая - сначала некий быстробот жрет контент не пережевывая, затем некий другой по аналогии с желудком сортирует его - что фтопку, а что внутрь организьма :)
Я бы на месте ТС не торопился бы, а подождал результатов переваривания немного дльше.