- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Подскажите пожалуйста такую вещь. Месяц назад запустили информационный сайт, на нём сейчас 1200 страниц, всего будет около 20000, может больше. Как в случае с таким объёмом страниц правильнее выстроить ссылочную стратегию? Ведь на каждую страницу ссылок не поставишь. Я склоняюсь к тому, чтобы основу всей ссылочной массы поставить на главную и на самые жирные по частотностям разделы.
Или даже на таких объёмах страниц надо ставить на внутренние страницы?
В общем, подскажите, чтобы в Гугле бодро двигаться и в Яндексе не улететь — как лучше в данной ситуации поступить? Интересует не конкретные какие-то кластеры двигать, а чтобы сайт в целом рос, желательно в обоих поисковиках.
Всё верно, на главную ставьте ссылки, повышая общий статический вес. На жирные разделы ставьте тоже, то есть логика такая, чтобы сама статья находилась в как меньшем количестве кликов от того места куда ведёт ссылка. Но, а вообще если это информационник, то по опыту можно найти жирнющие запросы без конкуренции практически (в чём его смысл собственно и заключается), и тогда есть смысл ставить линки именно на саму статью. Особенно когда запрос имеет сезонность и/или время от времени появляющуюся актуальность как например смена шин в автомобиле.
А если я буду только анкором валить — могу под фильтры улететь? В Яндексе например. Или это только комерческие сайты могут улететь?
А если я буду только анкором валить — могу под фильтры улететь? В Яндексе например. Или это только комерческие сайты могут улететь?
Если только анкоры - то ставьте разнообразные, 300 шт. одинаковых - перебор будет.
Все равно индексироваться, дай бог будет только половина
Если только анкоры - то ставьте разнообразные, 300 шт. одинаковых - перебор будет.
Я хотел вообще каждый анкор делать уникальным
Я хотел вообще каждый анкор делать уникальным
В таком случае можете 50%+ анкорных ставить. Хотя не исключено, что если и 100% анкорных в таком случае будет то пессимизацию за это не словите
В таком случае можете 50%+ анкорных ставить. Хотя не исключено, что если и 100% анкорных в таком случае будет то пессимизацию за это не словите
А сколько +- доменов можно ставить, чтобы и эффект был ощутим, но чтоб не улететь под фильтры?
А сколько +- доменов можно ставить, чтобы и эффект был ощутим, но чтоб не улететь под фильтры?
Знаете я как-то прям так массово никогда не закупаюсь, до 50 доменов в месяц в независимости от проекта/тематики и всегда всё ОК. Мы же говорим про качественные ссылки, которые стоят дорого, верно же? А не про говно всякое типа каталогов, профилей, крауда и т.д. ?
Я имею ввиду не в месяц, в вообще. Или под фильтры залетают именно когда одномоментно много ссылок появляется, а со временем если неспеша то хоть сколько можно наваливать?
Речь про статейные нормальные вечные ссылки с адекватных доменов.
Я имею ввиду не в месяц, в вообще. Или под фильтры залетают именно когда одномоментно много ссылок появляется, а со временем если неспеша то хоть сколько можно наваливать?
Речь про статейные нормальные вечные ссылки с адекватных доменов.
Среднее по больнице можете посмотреть- сколько ссылок у ваших конкурентов. Но это чисто прикинуть и не брать за основу.
Оптимальный вариант- отслеживаете позиции по основным ключам. Что не в топе - докупаете ссылки.
Среднее по больнице можете посмотреть- сколько ссылок у ваших конкурентов. Но это чисто прикинуть и не брать за основу.
Грубо говоря, если мой сайт будет сильно в нише выделяться среди конкурентов (например, медиана по топ-30 где-то 1000 доменов, а у меня будет 5000) - то возможно влететь под фильтр?