- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как правильно переносить сайт с АГС на новый домен (как это понимаю я):
1. Находим и исправляем причину попадания сайта в фильтр АГС.
2. Копируем БД и файлы на локальную версию сайта.
3. Закрываем в АГСном сайте в robots.txt индексацию ПС кодом
User-agent: *
Disallow: /
4. Ждем когда из кеша гугла и яндекса пропадут все страницы старого сайта (2-3 месяца).
5. Сносим все со старого сайта, закрываем домен.
6. Заливам все файлы и БД на новый домен.
7. Работаем над сайтом и делаем все что бы не наступить на грабли дважды.
Я правильно составил план действий? Поправьте если в чем то ошибаюсь.
Спасибо.
схема старая. щас она не употребима. решайте агс переклейкой, а не ребутом индекса.
схема старая. щас она не употребима. решайте агс переклейкой, а не ребутом индекса.
С переклейкой "переклеится" и АГС на новый домен. Такой вариант отпадает.
не переклеится, если все верно сделать. слушайте, тема на серче обсуждалась уже раз пять минимум. (я недавно исследовал паблик на предмет зеркальщика) чего вы со мной спорите?
не переклеится, если все верно сделать. слушайте, тема на серче обсуждалась уже раз пять минимум. (я недавно исследовал паблик на предмет зеркальщика) чего вы со мной спорите?
Вот как раз как это сделать верно, я и хочу узнать. Если у вас есть информация - делитесь. Тема обсуждалась, но окончательного решения я так и не увидел.
там очень очевидный путь - исправляем все ошибки на сайте, ждем индексации яндекса, переносим на новый домен. все. перенос бустит сброс АГСа после исправления ошибок. точнее, даже не так - агс не переходит на новый домен, а последующая проверка его не возвращает, в силу отсутствия старых причин. и для яши разница огромная - проверять на "АГС-факторы" сайт, который уже под АГС, или проверять на них сайт, который еще не под ним.
Мой вариант, что я описал ранее - не сработает?
3. Закрываем в АГСном сайте в robots.txt индексацию ПС кодом
User-agent: *
Disallow: /
В роботсе пишутся инструкции для бота. Для того, чтобы страницы удалились из индекса необходимо наоборот убрать все запреты из роботса и проставить на всех страницах метатег, noindex. В таком случае, поисковой бот загрузит страницы и обработает вышеупомянутый метатег. После этого можно спокойно ждать, когда из поиска исчезнут все страницы.
Остальное хз... Сам сейчас стою перед выбором, переносить на новый домен сайт или нет.
В роботсе пишутся инструкции для бота. Для того, чтобы страницы удалились из индекса необходимо наоборот убрать все запреты из роботса и проставить на всех страницах метатег, noindex. В таком случае, поисковой бот загрузит страницы и обработает вышеупомянутый метатег. После этого можно спокойно ждать, когда из поиска исчезнут все страницы.
Остальное хз... Сам сейчас стою перед выбором, переносить на новый домен сайт или нет.
т.е. роботс лучше оставить пустым? и подскажите плз, как (где) правильно ставить на страницах тег ноиндекс?
Спасибо!
т.е. роботс лучше оставить пустым? и подскажите плз, как (где) правильно ставить на страницах тег ноиндекс?
Спасибо!
http://robotstxt.org.ru/robotsexclusion/meta
evildevel, чочо? ноиндекс и запрет в роботсе - не одно и то же? ничегосебе! на отличненько! короче, мета роботс - дублирование функционала robots.txt. и не надо выдумывать сказки да лигендо.
нда... серч - такой серч...