- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Подскажите пожалуйста такую вещь. Месяц назад запустили информационный сайт, на нём сейчас 1200 страниц, всего будет около 20000, может больше. Как в случае с таким объёмом страниц правильнее выстроить ссылочную стратегию? Ведь на каждую страницу ссылок не поставишь. Я склоняюсь к тому, чтобы основу всей ссылочной массы поставить на главную и на самые жирные по частотностям разделы.
Или даже на таких объёмах страниц надо ставить на внутренние страницы?
В общем, подскажите, чтобы в Гугле бодро двигаться и в Яндексе не улететь — как лучше в данной ситуации поступить? Интересует не конкретные какие-то кластеры двигать, а чтобы сайт в целом рос, желательно в обоих поисковиках.
Всё верно, на главную ставьте ссылки, повышая общий статический вес. На жирные разделы ставьте тоже, то есть логика такая, чтобы сама статья находилась в как меньшем количестве кликов от того места куда ведёт ссылка. Но, а вообще если это информационник, то по опыту можно найти жирнющие запросы без конкуренции практически (в чём его смысл собственно и заключается), и тогда есть смысл ставить линки именно на саму статью. Особенно когда запрос имеет сезонность и/или время от времени появляющуюся актуальность как например смена шин в автомобиле.
А если я буду только анкором валить — могу под фильтры улететь? В Яндексе например. Или это только комерческие сайты могут улететь?
А если я буду только анкором валить — могу под фильтры улететь? В Яндексе например. Или это только комерческие сайты могут улететь?
Если только анкоры - то ставьте разнообразные, 300 шт. одинаковых - перебор будет.
Все равно индексироваться, дай бог будет только половина
Если только анкоры - то ставьте разнообразные, 300 шт. одинаковых - перебор будет.
Я хотел вообще каждый анкор делать уникальным
Я хотел вообще каждый анкор делать уникальным
В таком случае можете 50%+ анкорных ставить. Хотя не исключено, что если и 100% анкорных в таком случае будет то пессимизацию за это не словите
В таком случае можете 50%+ анкорных ставить. Хотя не исключено, что если и 100% анкорных в таком случае будет то пессимизацию за это не словите
А сколько +- доменов можно ставить, чтобы и эффект был ощутим, но чтоб не улететь под фильтры?
А сколько +- доменов можно ставить, чтобы и эффект был ощутим, но чтоб не улететь под фильтры?
Знаете я как-то прям так массово никогда не закупаюсь, до 50 доменов в месяц в независимости от проекта/тематики и всегда всё ОК. Мы же говорим про качественные ссылки, которые стоят дорого, верно же? А не про говно всякое типа каталогов, профилей, крауда и т.д. ?
Я имею ввиду не в месяц, в вообще. Или под фильтры залетают именно когда одномоментно много ссылок появляется, а со временем если неспеша то хоть сколько можно наваливать?
Речь про статейные нормальные вечные ссылки с адекватных доменов.
Я имею ввиду не в месяц, в вообще. Или под фильтры залетают именно когда одномоментно много ссылок появляется, а со временем если неспеша то хоть сколько можно наваливать?
Речь про статейные нормальные вечные ссылки с адекватных доменов.
Среднее по больнице можете посмотреть- сколько ссылок у ваших конкурентов. Но это чисто прикинуть и не брать за основу.
Оптимальный вариант- отслеживаете позиции по основным ключам. Что не в топе - докупаете ссылки.
Среднее по больнице можете посмотреть- сколько ссылок у ваших конкурентов. Но это чисто прикинуть и не брать за основу.
Грубо говоря, если мой сайт будет сильно в нише выделяться среди конкурентов (например, медиана по топ-30 где-то 1000 доменов, а у меня будет 5000) - то возможно влететь под фильтр?