- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Просвятите, может не в ту сторону думаю...
Решил снять порядка 100 доменов с parked и припарковать к существующему портфолио доменов.
Причина? Люди начинают интересоваться определенной категорией доменов, хотелось бы, чтобы при клике по домену они сразу видели весь пакет, предлагаемый к продаже.
В чем заключается задача: нужно, чтобы ПС не склеили между собой домены.
Как поступить правильней? Запретить индексацию паркованных доменов (если да, то как правильно?)? Не очень хотелось бы, откровенно говоря...
Или есть вариант разделить все через robots.txt (опять же, как правильно)?
Не хочу из хорошей идеи получить шанс загубить пакет доменов.
Выдавать по каждому разный контент. в том числе и разный robots.txt - достаточно сделать txt файл исполняемым интерпретатором PHP к примеру и внутри уже написать все что душе угодно
sergv, это тот самый вариант, когда НетКат позволит решить проблему с наименьшими затратами и гемором.
Все домены прописываются в админке и работают на одной базе, с возможностью натянуть на каждого свой диз. и выдавать в рамках каждого рабочего сайта сквозной блок предложения о продаже всего пакета.
С парковками, robots.txt и кодинкгом можете перемудрить и вляпаться. 🚬
Да сделать выдачу, как говорит iexpert не проблема. То что самому писать, что неткат ставить.
Я вот теперь задумываюсь, целесообразно ли мне делать выдачу разного контента и диза на 100 доменах сейчас + если данный подход себя оправдает и остальные подтянуть. Вот это уже по-моему геморрой будет...
Вот почему и решил проконсультироваться. Чувствую одним местом неладное, чувствую :)
ну я не вижу особого способа вляпаться то... если разный контент и robots.txt то получается, что сайты разные, просто на одном и том же ip что будет у вас в любом случае, если рассматривать виртуальный хостинг
Я вот теперь задумываюсь, целесообразно ли мне делать выдачу разного контента и диза на 100 доменах сейчас + если данный подход себя оправдает и остальные подтянуть. Вот это уже по-моему геморрой будет...
Если все делать по уму, то целесообразно! Разный диз можно сгенерить чисто символически на автомате прямо в базе: стили, шрифты, цвет, фон. Контент на 2-3 странички для каждого сайта - так же не проблема. Нужно будет лишь проиндексировать домены в базе группами, чтобы формировать пакет предложений на каждом из группы в связке и на всякий случай закатать этот блок в ноиндекс. 🚬
на липовые домены пишите "Домен Имярек продается....". Остальной контент грузите через JavaScript.