- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет,
Есть новый сайт (буду называть его основным), месяц всего, но постепенно вылезает. Есть мысль развить еще 2-3 темы, имеющие к нему непосредственное отношение.
Вариантов, как я понимаю, три.
Первый - добавить это все на основной сайт. Но не хотелось бы, чтобы не захламлять его обилием информации.
Второй - создавать отдельные сайты с линками на основной.
Третий - сделать сайты на субдоменах первого с линками на основной.
Вот не знаю, какой из последних двух способов будет наилучшим для раскрутки основного сайта в Google. Понятно, что это только один из аспектов принятия решения, но немаловажный.
Я склоняюсь к субоменам, но, практически не имея опыта работы с public сайтами, не уверен, буду благодарен за подсказки.
Имхо, лучше на субдомены информацию вынести хотя бы потому, что Google обозначилл интерес к интернет-порталам. И в случае размещения информации на субдоменах как раз портал и получается.
Кроме того, "создавать отдельные сайты с линками на основной" - далеко не лучший вариант из-за сливания трафика за рамки данных сайтов, что в худшем случае дает намек на дорвейность созданных сайтов.
И в случае размещения информации на субдоменах как раз портал и получается.
Надо же :-)
"Выяснилось позже - я с испугу разыграл классический дебют!"
А вот смотрю я на сайт конкурента (одного из многих), они сделали сайт, скажем, фирма.com, потом сделали фирма-слово1.com, потом фирма-слово2.com. Контент везде одинаковый, дизайн одинаковый (только коллаж в заставке разный), перлинковали это все, на каждом по ~500 страниц, все в выдаче есть, других ссылок практически нет (несколько гостевух и пару тематических каталогов). В результате PR главной страницы 4. Правда, у них такой контент, что никуда в серпе они не вылезают, т.к. конкуренция по их ключевикам очень высокая, но все же.
Кстати, их сайт зарегистрирован в DMOZ.
А вот смотрю я на сайт конкурента (одного из многих), они сделали сайт, скажем, фирма.com, потом сделали фирма-слово1.com, потом фирма-слово2.com. Контент везде одинаковый, дизайн одинаковый (только коллаж в заставке разный), перлинковали это все, на каждом по ~500 страниц, все в выдаче есть, других ссылок практически нет (несколько гостевух и пару тематических каталогов). В результате PR главной страницы 4. Правда, у них такой контент, что никуда в серпе они не вылезают, т.к. конкуренция по их ключевикам очень высокая, но все же.
Кстати, их сайт зарегистрирован в DMOZ.
Не стоит завидовать подобным "умельцам" - рано или поздно, но за свои проделки они будут наказаны поисковиками.
А в DMOZ берут практически все старые, нормально оформленные сайты.
Не стоит завидовать подобным "умельцам" - рано или поздно, но за свои проделки они будут наказаны поисковиками.
И не думал. Просто непонятно, точему такие дуболомные методы работают. Не знаю, как для роботов, но человеку все становится понятно за несколько кликов. Да и по большому счету не конкуретны они, просто я их знаю.
И не думал. Просто непонятно, точему такие дуболомные методы работают. Не знаю, как для роботов, но человеку все становится понятно за несколько кликов.
Просто человек умнее любого автоматизированного робота. Да и совсем не факт, что данная сетка сайтов будет долго жить.
Просто человек умнее любого автоматизированного робота. Да и совсем не факт, что данная сетка сайтов будет долго жить.
Два года живет. Сейчас проверил запрос: 742 000 - они седьмые. Просто у них в основном ключевики выбраны неверно, а так можно было бы привести достаточно народу.