fest1val

fest1val
Рейтинг
69
Регистрация
18.06.2013
Pustik:
Добрый день, коллеги!

Такой вопрос -
1. Есть два домена являющиеся полными зеркалами друг друга
2. Есть задача выводить один домен в Гугле (под Украину) , второй в Яндексе (Россия)
3. Дабы не словить аффилиат фильтр от Яндекса, нам нужно склеить второй домен с основным, при этом, чтобы в Гугле выводился второй домен
4. Будет ли корректная такая конструкция robots.txt для каждого сайта:
User-agent: Yandex
Host: первый домен

User-agent: Googlebot
Host: второй домен

По логике после обработки такой конструкции в Яндексе 1 и 2 домены должны склеиться по первому хосту, в Гугле - по второму.

Поправьте если не прав.

1. Полные зеркала друг друга, быть не могут!
Зеркало это полное отражение какой-то информации.
Если www.site.ua это зеркало site.ua, то site.ua это просто главное зеркало.

2. Зеркала нужно конфигурировать в htaccess один раз и для всех ПС.

3. Фильтр аффилиат никак не связан с криво настроенным зеркалом.
В данной ситуации у вас просто дубль контента.
Склейка доменов происходит по средством 301 редиректа а не настройкой зеркал. Первый домен переводит все запросы на второй домен. ПС будет ранжировать второй домен а посетители первого домена будут перенаправляться на второй.

4. host вроде только Яндекс обрабатывает. По логике у тебя просто дубли контента которые будут ранживаться в хаотическом порядке.

Без настроенной системы редиректов, дублей тебе не избежать.

Milash:
С вероятностью 95%+ ваш сайт просто под фильтром.

Слышу звон, не знаю где он.

За "подобное", что изображено на скриншоте фильтр не дают.

Подумал бы головой прежде чем диагнозы с неба ставить с вероятность 95+%

Правильно specc сказал.

Может быть применен автоматический пингвин, в случае если ссылки резко появились.

Почему проблемы с трафиком:

1. Сайт продвинут под другую ПС.

В яндексе 2 тыс запросов в ТОП 50. ТОП 10 около 500.

В Google около 1000 в ТОП 50, и меньше 100 в ТОП 10.

По этому и трафик такой, около 300 против 50.

2. В выдаче серьезные конкуренты у тебя, трастовые и витальные.

3. Сайт плохо оптимизирован.

4. У сайта плохое ссылчное.

Нужно заказать и выполнить аужит, писать полезный и уникальный контент, заказать ссылочную стратегию, работать над CTR.

>на всякий случай заблокировал в .htaccess, но теперь думаю - а вдруг это бот гугла обновляет страницы ...

>Как считаете?

Если ты видишь что IP принадлежит Google, зачем блокируешь?

>т.е получается, что это два конкретных человека. Интересно, зачем им одновременно делать по 700-800 переходов по интернет-магазину?! Странно это всё.

Одни мучаются что бот переходов не делает, другой жалуется что бот много краулит.
Ботов ПС нельзя блокировать если ты планируешь получать с них трафик, ты наоборот добавь их в белый список, что бы не дай бог не закрыть ему доступ.
Например DOS фильтром.

Dimon_163:
Да кому мы нужны 😂 к тому же если бы только меня...



У нас из индекса вылетели.

Запомни- так будет всегда.

zapad:
Пару лет выдача Гугла и Яндекса выдавали примерно одни те же позиции по моему сайту или даже Гугл ставил сайт выше по большинству фраз чем яндекс. И вдруг мой сайт сильно упал в выдаче Гугла в сравнении с Яндексом. С тех пор позиции слегка подтянулись выше,но до прежних мест сильно далеко (в основном 30-ые места). Можете подсказать,что делать и что произошло?
(Оптимизирую последнее время только статьями)

Учись подстраивается под два алгоритма.

Сразу в двух системах как правило при низкой конкуренции получается.

Обычно приходится подкручивать.

"Круто" по многих соображениям:

1. Сам факт - для понта.

2. Качественный трафик.

3. Мощный сигнал для ПС, сигнализирующий о высоком качестве сайта.

Если есть возможность поставить ссылку с трастового/ посещаемого ресурса, обязательно ею воспользуйтесь, не обращайте внимания на то как ссылка выполнена в техническом плане.

я считаю это неправильным, задавать какие-то ограничения.

он должен сам решать, сколько он сегодня проглотит и как часто будет чекать урл.

сделайте кэш несколько суток.

Время не помню, порядка 100 статей около недели было.

Где-то обсуждалось - забыл добавить в закладки.

Реально качественные текста, как уьверждали.

Язык там был только русский, сейчас нужен русский, украинский, польский, английский.

Более бомжатского регистратора не смогли найти?

>я например нехочу домены держать в рег.ру так как отобрать могут нефиг делать!

без решения суда/ прокуратуры никто, ничего, не сможет ничего забрать.

если работать с такими некомпетентными людьми то и школота как нибудь у вас что-то заберет, правильно, школота понадежней будет правительства.

если пользоваться услугами мастеров в подворотне - радуйтесь что вас просто не кинули на бабки.

чуть сосмеху не упал когда увидел что на сайте можно выбрать язык, и есть вариант Russian513?

я так понял регистратор просто скачал шаблон CMS и начал толкать услуги?

даже есть услуга бесплатного скрытия WHOIS ничесе!

веб-мани BL 74 этим все сказано

Zhandosbai:
Решили проблему просто запретом индексации мета тэгом: <meta name="robots" content="noindex, nofollow" />
Как скоро эти стр выпадут с индекса? И как поисковики относятся к таким страницам?
Zhandosbai:
Собственно уточнил у поддержки Яндекса

УХТЫ можно запретить индексирование через noindex ничего себе!

Ну как бы в документации что к Яндексу что к Google так и написано, зачем нужно было обращаться в техподдержку, вот из-за таких вопросов люди и ждут ответы по месяцу потому что техподержка отвлекается на такой хлам.

По делу, к пустым страницам никак не относится, они выпадают с индекса сами по себе, google по крайней мере, если меньше ~400-700 символов даже уникального, это если нету трафика и беков.

Как скоро выпадут с индекса - зависит от скорости обхода сайта.

Всего: 83