- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сеошники постоянно обсуждают, что Гугл и Яндекс не так учитывают ссылки с сайтов, находящихся на одних ай-пи адресах и серверах имён. Предположим, сделали сайту отдельный IP + собственные NSы вида ns1.domain, ns2.domain. Телефон отдельный, мыло на этом же домене. В хуизе будут 100% уникальные данные. Будет толк? Стоит ли морочиться? У кого какие наблюдения?
Если толк и будет, то минимальный. Заморачиваться не стоит.
Если только с точки зрения: Моё, есть Моё и ни кто мне не указ.
Оксиген, дык а какая там выделка? Т.е. трудозатрат особо и нет, а так солиднее :) Конкретики по выхлопу мало, единственное, что солидные и большие проекты идут именно по этому пути. Ну в большинстве, конечно из-за выделенных серверов под попой.
Предположим, сделали сайту отдельный IP + собственные NSы вида ns1.domain, ns2.domain. Телефон отдельный, мыло на этом же домене. В хуизе будут 100% уникальные данные. Будет толк? Стоит ли морочиться? У кого какие наблюдения?
Если речь о перелинкованной сетке - без этого вообще нельзя. Если об одном сайте - с точки зрения фильтра на аффилированность смысла просто нет.
трудозатрат особо и нет
Ну как это нет? Около часа, а то и все два, всё равно придётся провозиться с каждым сайтом. Плюс ежемесячные расходы на отдельные IP адреса.
Jet D., речь о нескольких сайтах, имеющих очень много общего (владелец, подсеть, движки и т.п.). Можно называть это сеткой (но это не сеть гс), можно как-то иначе. Содержание сайтов не пересекается.
Получается, что к каждому сайту надо взять ещё и как минимум 2-3 выделенных айпишника? NS'ы то куда садить?
Оксиген, если речь об уже существующих сайтах - смысла нет, данные уже "спалены".
А новые домены регистрируйте в R01 (или у его реселлеров) и включайте полное сокрытие данных whois - все данные будут уникальными (все делается автоматически, ни о каких трудозатратах нет и речи). IP - не обязательно выделенные, но из разных подсетей. NSы - желательно чайлды + несколько NSов регистраторов или хостеров.
данные уже "спалены"
Почему сайт не может поменять владельцев?
все делается автоматически, ни о каких трудозатратах нет и речи
+ несколько NSов регистраторов или хостеров
А это зачем? Т.е. я понимаю для чего нужны дополнительные NS'ы, но мой вопрос касается поисковиков, а не повышения стабильности. Что, когда больше разных серверов имён - траст повышается?
+ несколько NSов регистраторов или хостеров.
А это зачем? Т.е. я понимаю для чего нужны допольнительные NS'ы, но мой вопрос касается поисковиков, а не повышения стабильности. Что, когда больше разных серверов имён - траст повышается?
Видимо имелось в виду, что не обязательно для всех доменов делать собственные NS, для некоторых вполне достаточно "затеряться" среди тысяч доменов, настроенных на NSы крупных хостеров и регистраторов. Во всем согласна с Jet D.
Почему сайт не может поменять владельцев?
Один сайт может. А вот несколько сайтов с признаками аффилированности одновременно сменить владельцев на разных лиц, и перестать быть аффилированными - это фантастика...
Говоря о трудозатратах я имел ввиду редактирование DNS зон на сервер, заказ IP адресов у провайдера и т.п. Это никак не автоматизировать.
Полчаса-час, максимум два - на все, но никак не час на каждый.
А это зачем? Т.е. я понимаю для чего нужны дополнительные NS'ы, но мой вопрос касается поисковиков, а не повышения стабильности. Что, когда больше разных серверов имён - траст повышается?
Как уже ответила Vikas, имелось в виду, что не обязательно для всех доменов делать собственные NS, для некоторых вполне достаточно "затеряться" среди тысяч доменов, настроенных на NSы крупных хостеров и регистраторов.
А крупная сетка ГСов, и все на чайлдах - это очень подозрительно. С СДЛами дела лучше - но смысл тот же.
Как по мне, так лучше всего Privacy на WhoIs (затеряться в миллионах таких же WhoIs), а NS распределять по сервисам FreeDNS и NS от самих регистраторов. Чем больше разных NS удастся набрать, тем меньше разных хостингов и IP придется использовать.
А собственные NS - это сразу повод для ПС смотреть только на IP сайта и тогда реально надо ещё и разные IP для каждого домена запасать.