- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток !
Сделал зеркало сайта на поддомене чтобы немного поэкспериментировать с дизайном (сайт на WebAsyst)
Буквально месяц назад это работало когда прописывал в robots.txt
User-agent: *
Disallow: /
ща гугл его проиндексировал почемуто, здесь пишут что оно должно работать /ru/forum/622461
Я устанавливал его на локалке он установился, но криво как то, вот джумла на локалке нормально устанавливается а вот WebAsyst вобщем верстать его на локалке невозможно...
Мож хто что-то подскажет по этому поводу, как лучше закрыть от индексации зеркало сайта....
Мож хто что-то подскажет по этому поводу, как лучше закрыть от индексации зеркало сайта....
Файл .htaccess гугль бот (можно и все прочие) в баню.
метатег ноиндекс нофолоу тож гошу останавливает.
Файл .htaccess гугль бот (можно и все прочие) в баню.
А что там прописывать надо в .htaccess?
---------- Добавлено 28.10.2013 в 23:55 ----------
метатег ноиндекс нофолоу тож гошу останавливает.
Этими мэтатэгами ток отдельные страницы сайта скрыть можна а если на сайте около 3000 страниц то задолбешся скрывать......
ща гугл его проиндексировал почемуто
гугл индексирует заголовки страниц закрытых в роботсе, но это не принесет вам проблем с основным сайтом.
гугл индексирует заголовки страниц закрытых в роботсе, но это не принесет вам проблем с основным сайтом.
Да но раньше под заголовком он писал что этот сайт типа закрыт от индексации (я точную фразу не помню что то типа ограничено или в этом роде) а теперь он полностю проиндексировал зеркало так само как и основной сайт, вот что настораживает.....
А что там прописывать надо в .htaccess?
RewriteCond %{HTTP_USER_AGENT} ^Google.*
RewriteRule ^(.*)$ http://главноезеркало/ [L,R=301]
на заметку:
Блокирование сканирования Google
RewriteCond %{HTTP_USER_AGENT} ^Google.*
RewriteRule ^(.*)$ http://главноезеркало/ [L,R=301]
на заметку:
Блокирование сканирования Google
Возможно, лучше изначально было отдавать ошибку, но если сайт уже попал в индекс, то так тоже неплохо.
Возможно, лучше изначально было отдавать ошибку, но если сайт уже попал в индекс, то так тоже неплохо.
Спасибо я попробую, но я не пойму эту фразу : "Возможно, лучше изначально было отдавать ошибку, но если сайт уже попал в индекс, то так тоже неплохо"
Спасибо я попробую, но я не пойму эту фразу : "Возможно, лучше изначально было отдавать ошибку, но если сайт уже попал в индекс, то так тоже неплохо"
Да не берите в голову.