robots.txt и куча доменов на 1 аккаунте

sergv
На сайте с 13.04.2006
Offline
441
430

Просвятите, может не в ту сторону думаю...

Решил снять порядка 100 доменов с parked и припарковать к существующему портфолио доменов.

Причина? Люди начинают интересоваться определенной категорией доменов, хотелось бы, чтобы при клике по домену они сразу видели весь пакет, предлагаемый к продаже.

В чем заключается задача: нужно, чтобы ПС не склеили между собой домены.

Как поступить правильней? Запретить индексацию паркованных доменов (если да, то как правильно?)? Не очень хотелось бы, откровенно говоря...

Или есть вариант разделить все через robots.txt (опять же, как правильно)?

Не хочу из хорошей идеи получить шанс загубить пакет доменов.

https://REGHOME.ru - регистрация и продление доменов от 169₽ в российских и международных зонах по честным ценам без звездочек. (R01, WebNames, UK2). Принимаем Ю-Money, Visa, MasterCard, Мир
iexpert
На сайте с 01.09.2005
Offline
184
#1

Выдавать по каждому разный контент. в том числе и разный robots.txt - достаточно сделать txt файл исполняемым интерпретатором PHP к примеру и внутри уже написать все что душе угодно

Бойтесь ваших желаний, ибо они могут исполниться
DrJeans
На сайте с 06.07.2006
Offline
231
#2

sergv, это тот самый вариант, когда НетКат позволит решить проблему с наименьшими затратами и гемором.

Все домены прописываются в админке и работают на одной базе, с возможностью натянуть на каждого свой диз. и выдавать в рамках каждого рабочего сайта сквозной блок предложения о продаже всего пакета.

С парковками, robots.txt и кодинкгом можете перемудрить и вляпаться. 🚬

Спроси на Boosty: https://boosty.to/smorovoz SEO на Ютубе: https://www.youtube.com/@youtube-seo/
sergv
На сайте с 13.04.2006
Offline
441
#3

Да сделать выдачу, как говорит iexpert не проблема. То что самому писать, что неткат ставить.

Я вот теперь задумываюсь, целесообразно ли мне делать выдачу разного контента и диза на 100 доменах сейчас + если данный подход себя оправдает и остальные подтянуть. Вот это уже по-моему геморрой будет...

С парковками, robots.txt и кодинкгом можете перемудрить и вляпаться.

Вот почему и решил проконсультироваться. Чувствую одним местом неладное, чувствую :)

iexpert
На сайте с 01.09.2005
Offline
184
#4

ну я не вижу особого способа вляпаться то... если разный контент и robots.txt то получается, что сайты разные, просто на одном и том же ip что будет у вас в любом случае, если рассматривать виртуальный хостинг

DrJeans
На сайте с 06.07.2006
Offline
231
#5
sergv:
Я вот теперь задумываюсь, целесообразно ли мне делать выдачу разного контента и диза на 100 доменах сейчас + если данный подход себя оправдает и остальные подтянуть. Вот это уже по-моему геморрой будет...

Если все делать по уму, то целесообразно! Разный диз можно сгенерить чисто символически на автомате прямо в базе: стили, шрифты, цвет, фон. Контент на 2-3 странички для каждого сайта - так же не проблема. Нужно будет лишь проиндексировать домены в базе группами, чтобы формировать пакет предложений на каждом из группы в связке и на всякий случай закатать этот блок в ноиндекс. 🚬

Ayavryk
На сайте с 11.10.2003
Offline
209
#6

на липовые домены пишите "Домен Имярек продается....". Остальной контент грузите через JavaScript.

Тынгыр, мынгыр, комсомол (http://erum.ru). Ехари, ехари, (жалобно) аяврик. /народная тунгусская песня/

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий