- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
вы всех ботов Гугла знаете?
Что-то я не пойму вашей логики, причем тут боты гугла для запрета сайта к индексации? Или в роботс, кроме Googlebot в юзер-агенте его секции, еще что-то пишите? Какая разницы с каких ботов зайдет на сайте, задача у него будет одна не включать в индекс. А раз сайта нет в индексе, то соответственно и дублей нет :)
а вы попробуйте
http://www.google.ru/search?hl=ru&newwindow=1&site=&q=site%3Aforum.searchengines.ru+%22%D0%A0%D0%B5%D0%B3%D0%B8%D1%81%D1%82%D1%80%D0%B0%D1%86%D0%B8%D1%8F+%D0%BD%D0%B0+%D1%84%D0%BE%D1%80%D1%83%D0%BC%D0%B5+%D0%B0%D0%B1%D1%81%D0%BE%D0%BB%D1%8E%D1%82%D0%BD%D0%BE+%D0%B1%D0%B5%D1%81%D0%BF%D0%BB%D0%B0%D1%82%D0%BD%D0%B0%22
это называлось клоакинг
Что именно?
Google всеравно будет просматривать новый сайт site555.com и возможно ему не понравится такое дублирование
А весь список фобий не изложите?
это шаманство приведёт к дублям у Гугла
Что такое дубли?
Не приходило в голову, что новый просто не будет индекситься?
ps ТС, а что там у вас с причинами АГС? И вы тут не высказали каких-то реально использовавшихся способов...
mjxjm, перестаньте морочить голову себе и сообществу...
вы пытаетесь и на ёлку влезть и шишку не съесть - такого не бывает... имхо...
Ваши слова, angr, почему то вместо желания бросить эту идею натолкнули на мысль:
"Значит все-таки, что то в этой идее есть ☝ "
То есть если найти правильное решение, то получится и на елку сесть и ... :)
Мой небольшой опыт работы с SEO и вообще с заработком в сети, подсказывает мне, что не все так сложно, как кажется изначально.
Извините за лирическое отступление. 🍿
Еще есть мнения?
Извините за лирическое отступление.
извиняю...
подсказывает мне, что не все так сложно, как кажется изначально.
да, я с вами полностью соглашусь! - оно сложнее в сотни раз ;)
Значит все-таки, что то в этой идее есть
а я и не говорил, что нет! (правда - смотря чего) ;)
Что-то я не пойму вашей логики, причем тут боты гугла для запрета сайта к индексации? Или в роботс кроме Google в юзер-агенте для его секции, еще что-то пишите? Какая разницы с каких ботов зайдет на сайте, задача у него будет одна не включать в индекс. А раз сайт не в индексе, то соответственно и дублей нет :)
если сайт ранее проиндексирован Гуглом то весь контент у него сохранился и будет храниться до поры, до времени ... это раз.
далее ... robots.txt это не преграда для Гугла и htaccess тоже. Не надо забывать что Гугл частица Пентагона (тут разрешите не комментировать). Но управлять частично ботом Гугла можно и даже разрешается, но утаить контент, который был с www и без него невоможно.
Замечу что мощности Гула позволяют сканировать всё, и плохие сайты и хорошие и даже плохие (копипаст, дорвеи и etc) могут на некоторе время появится в ТОР 30, но как только завершится обработка базы, многие плохие сайты оказываются в ТОР 3000, куда люди не ходят и остаются там очень долго, а дерзкие попросту уходят в бан.
Я к чему развёл эту полемику ... ?
Всё можно пробовать, но самый лучший вариант это один домен, один сайт ... и ни какой чёрной тени.
А весь список фобий не изложите?
Фобия у меня одна - потерять трафик с Гугла. До сих пор он мой сайт любил.. тьфу тьфу
Поэтому обижать Гошу не хочу, ищется максимально мягкий вариант.
Не приходило в голову, что новый просто не будет индекситься?
ps ТС, а что там у вас с причинами АГС? И вы тут не высказали каких-то реально использовавшихся способов...
Индексится думаю будет, а если не будет, то выкину site555.com и всего делов. Не было трафа с Яши и если не появится потеря небольшая.
Причины АГС:
1. Домен покупался с историей. В выдаче больше 22 страниц никогда не было.
2. Это был мой первый опыт - результат внутренняя переоптимизация, большая часть которой легко устранима на уровне настройки шаблона и придется кое какой контент порубить, но несущественно. Уже есть аналогичные сайты со 100% индексацией страниц. Но так как делаю все сам и без парсеров и синонимазеров, то нет желания больше 1000к страниц делать с нуля. Там удачные НЧ и СЧ запросы получились (повторюсь Яша уже давал существ.траф, спустя всего 6 мес)
не преграда для Гугла и htaccess тоже.
а вот хрена ;)
Гугл частица Пентагона
спать! спать полезно!
(тут разрешите не комментировать)
настоятельно рекомендую!
но утаить контент, который был с www и без него невоможно.
могу прямо сейчас показать вам такой контент :)
мощности Гула позволяют сканировать всё
не буду спорить, не знаю... но то что я не хочу ему показывать - он не увидит никогда!
Всё можно пробовать, но самый лучший вариант это один домен, один сайт ... и ни какой чёрной тени.
Вообще, мне Ваши посты всегда нравятся. Это как смотреть фильмы про Джеймса Бонда :)
И логично, и Пентагон участвует и сам герой подкупает своей оснащенностью и тем что рядом с ним всегда красивые женщины. (... это я шутил 🍿)
А если серьезно. Если уж у Гугла предусмотрена возможность сайту иметь зеркала, причем речь не только о "www" и "без www". То почему же site555.com станет черной тенью? Только из за отсутствия 301 редиректа?
Более того, я бы предпочел не водить Гошу за нос. Моя жертва - Яндекс.
Индексится думаю будет, а если не будет, то выкину site555.com и всего делов.
Там был ответ про Гугл. И не вам...
Старый обычно прилеивался к новому для Я. Но можете начать всё сначала. Может быть это и правильнее.
самый лучший вариант это один домен, один сайт
Новый может просто не индекситься (без запретов). И ничему не мешать.
И зеркала не запрещены.
настоятельно рекомендую!
дыма без огня не бывает ...
Google as Pentagon contractor