- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ребята помогите советом. Имеется две пачки сателлитов:основная 50 штук и вспомагательная 20 штук.
Начальные условия такие:основная 500-800 страничные сдл-вида(статичные), вторая 300-500 страничные сдл-вида(обновляемые). Сателлиты не перелинкованы. Предпологается расстановка ссылок с второстепенной пачки на основную.
Ссылки будут расставлятся на второстепенной в момент создания сайта, до индексации:не более 50 ссылок с домена, не более 1 ссылки на странице, с уникальными анкорами из контекста. Каждый сайт из второстепенной будет ссылаться на основную, но между собой не перелинкованы.
Два вопроса, для тех кто эксперементировал(сателлиты делаются не ГС, вкладывается много сил, поэтому нет возможности самостоятельно поставить эксперемент и пожертвовать своими усилиями):
1)Насколько безопасно такое построение для прокачки, есть ли альтернативы более правильного построения.
2)Как максимально обезопасить от недоброжелателей и любителей стучать в яндекс, как правильно прописать robots.txt, максимально закрыть от стороннего анализа по внешним ссылкам, так как основная пачка будет двигать довольно конкурентные запросы.
максимально закрыть от стороннего анализа по внешним ссылкам,
Оставить только 2 основных поисковика, остальные закрыть.
Оставить только 2 основных поисковика, остальные закрыть.
спасибо, а сама схема прокачки будет жить?
Вам что, дать гарантию с печатью и указанием гарантийного срока?
Вам что, дать гарантию с печатью и указанием гарантийного срока?
нет, просто хотелось бы услышать-да по такому принипу есть работающие сети, только из-за фактора построения сети, сайт не улетить, по другим факторам все возможно.Но в других факторах я уверен, так как сайты живут и трафик на них под 1к. То есть сделать подобный сайт, но сразу расставить ссылки, повлияет ли этот фактор на вылет?
MaverickC, Вы составили robots.txt для исключения не нужных ботов?
Полная идентичность по внешним ссылкам (у Вас именно так и планируется - каждый из доменов ссылается на одинаковый набор доменов того, что Вы называете первым уровнем) плоха как для сетки второго уровня (легко вычисляется основными поисковиками), так и для первого (их прокаченность становится весьма условной).
По моим данным при пересечении списка акцепторов в объеме 80%, доноры теряют свою весовую значимость, при 92% - сетка банится.
Прим: мои экспериментальные сетки трудно назвать СДЛ-ными. Но боюсь не в этом дело. :)
Прим2: степень свежести данных посредственная - конец эксперимента датируется декабрем 2010 года. Впрочем, пока необходимости актуализирования нет.