- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Возник тут вопрос, на который я ответа не знаю, не проверял, самому стало интересно.
В общем, кто-нибудь проверял такое?
Сайт практически в зачаточном виде выкладывается на хостинг. То ли из-за неспособности Денвера эмулировать все нужные функции, то ли из-за кривоватых рук разработчика, в общем сайт будет пилиться уже на хостинге. В связи с этим возникает вопрос с robots.txt. Дело в том, что шаблон там на английском, надо переводить, ну и конечно править стили, добавлять блоки, короче работа затянется на пару месяцев. По идее, сайт логично было бы закрыть полностью в роботс.тхт? Или нет? И если закрыть, допилить сайт, открыть, то через какое время ПС потом начнут его кушать?
По идее, сайт логично было бы закрыть полностью в роботс.тхт? Или нет?
В зависимости от целей, можно вместо robots.txt временно установить авторизацию апачем.
И если закрыть, допилить сайт, открыть, то через какое время ПС потом начнут его кушать?
Главную ПС посмотрят сразу как только скачают незапрещающий robots.txt. То есть, плюс-минус, через пару дней. А дальше - зависит много от чего, и не столько от robots.txt.
На index вешал заглушку, сайт правился допустим на index5.html
Скушалось с пары ссылок и сайтмапа в ЯВМ, Гугл сам всё нашёл
или с твитер, х/з.
Как то так.
В основном беспокоит конечно Яндекс, он любит во многих случаях "к сожалению, это процесс нельзя ускорить" : )
Гугл часто индексирует, даже если весь сайт запретить в robots.txt:)
В основном беспокоит конечно Яндекс, он любит во многих случаях "к сожалению, это процесс нельзя ускорить" : )
Использую конструкцию:
Dissallow:/
Для Яндекса вполне подходит, проблем не было с попаданием в индекс того, чего там быть не должно. Либо как уже говорили, собирайте на поддомене, а потом переносите - тоже вполне себе вариант.
Использую конструкцию:
Dissallow:/
На всякий случай, чтобы никого не вводить в заблуждение, позволю себе поправить опечатку:
Thommy,
Беспокойство вызывает все-таки не столько то, что в индекс попадет что-то нежелательное, сколько время, которое потребуется для входа в индекс Яндекса после открытия сайта в роботс.тхт
Thommy,
Беспокойство вызывает все-таки не столько то, что в индекс попадет что-то нежелательное, сколько время, которое потребуется для входа в индекс Яндекса после открытия сайта в роботс.тхт
По-разному. Я не сео-гуру, но, опираясь на свой опыт, все зависит от того, как скоро вы начнете покупать ссылки. Автоматически (опять же из моего опыта), это может происходить в течение 1 (идеальный вариант) до 3 недель. Второе случается значительно чаще.
Thommy,
Беспокойство вызывает все-таки не столько то, что в индекс попадет что-то нежелательное, сколько время, которое потребуется для входа в индекс Яндекса после открытия сайта в роботс.тхт
Как раз с этим недавно попал! Уже месяц - ни одной страницы в индексе, загружено (в ЯВМ инфа) - 1 страница. Платоны молчат :(
Как раз сегодня начал вторую стадию такого же эксперимента. Сайт был полностью закрыт в роботсе в течение 3 недель. Вчера вечером открыл. Главная появилась практически сразу. По названию фирмы уже находится легко в поиске. Теперь буду посмотреть... Как дальше пойдет.