- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня на хостинге к одному проекту можно прикрутить хоть 10 доменов, но склеятся ли эти домены ?
Хотелось бы уточнить, если к одному сайту прикручено 2 домена, нужно просто подправить роботс как надо ? или надо создать 2 одинаковых проекты с разными прикручеными доменами и прописать в роботс что надо ?
Если на всех доменах отображается один и тот же сайт и правильно настроены robots.txt, то должны склеиться.
У меня на хостинге к одному проекту можно прикрутить хоть 10 доменов, но склеятся ли эти домены ?
Да! У меня 4 штуки склеились...
Хотелось бы уточнить, если к одному сайту прикручено 2 домена, нужно просто подправить роботс как надо ? или надо создать 2 одинаковых проекты с разными прикручеными доменами и прописать в роботс что надо ?
У меня домены "прикручены" на одну папку на сервере в корне которой лежит роботс с указанием главного. При добавлении новых доменов в роботсе ничего не менял. Все отлично склеилось.
Вопрос, почему поисковик не удаляет копии сайтов, вот к примеру: был сайт вы создали новый домен, там тот же контент на следующем апе сайт выпадает из индекса не какой склейки уже не идет речь. Я понимаю в Гугле редирект один сайт выпадает а другой заходит в индекс. А в Яндексе это выглядит очень рискованным делом.
Вот дела - был домен под фильтром я его убрал, прицепил к проекту новый домен, а сегодня смотрю - у старого домена +10 страниц в выдаче
Вот теперь не знаю что и делать, вернуть его - а вдруг так 10 страниц и останется, прицепить сразу 2, тоже не знай какой основным делать...
Вопрос, почему поисковик не удаляет копии сайтов, вот к примеру: был сайт вы создали новый домен, там тот же контент на следующем апе сайт выпадает из индекса не какой склейки уже не идет речь. Я понимаю в Гугле редирект один сайт выпадает а другой заходит в индекс. А в Яндексе это выглядит очень рискованным делом.
Вот главная мысль. Как раз так и есть. Хоть прописывай в роботс что надо, он все равно на след ап зафильтрует новый домен и фиг ты склеишь. Крайне непродуманная система, но что поделаешь...