- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую! Есть вопрос... Был у меня сайт (молодой), с фильмами онлайн, слетела БД из-за конфликта плагинов. Копии у меня небыло, пришлось все делать заново. На предыдущем варианте сайта было около 120 страниц, все в индексе, (как я понимаю они сейчас битые) сделал на этом домене новый сайт на данный момент наполняю его. Мне интересно знать может ли Яша пустить под фильтр новую версию сайта и как можно убрать из индекса старые ссылки?????
Если кому интересно, сайт filmprofilm.r*
Если на этом домене от старого сайта ничего не осталось, Яша сам все со временем переиндексирует и бана 100% не будет.
На будущее у нас на форуме даже есть темка - там чувак помогает восстанавливать утерянные данные сайтов. может и вам помог бы
Пропишите просто это в файле Robots.txt
#sorry_tupa_nul
User-agent: *
Disallow: /
Пропишите просто это в файле Robots.txt
#sorry_tupa_nul
User-agent: *
Disallow: /
Бредовая идея. Таким образом не попадут новые страницы в индекс.
Правильнее будет либо восстановить урлы прошлых страниц (по кешу яши, или других ПС), и на них листь новый контент, либо (опять) восстановить урлы старых страниц, и поставить 301 на новые.
Пропишите просто это в файле Robots.txt
#sorry_tupa_nul
User-agent: *
Disallow: /
что верно, то верно))))))))))))))
---------- Добавлено 27.11.2012 в 23:16 ----------
Бредовая идея. Таким образом не попадут новые страницы в индекс.
Правильнее будет либо восстановить урлы прошлых страниц (по кешу яши, или других ПС), и на них листь новый контент, либо (опять) восстановить урлы старых страниц, и поставить 301 на новые.
Я со страницы 404 поставил скрипт перенаправления на главную. Со старых урлов на главную попадают...
Бана быть не должно.
Если на этом домене от старого сайта ничего не осталось, Яша сам все со временем переиндексирует и бана 100% не будет.
Еще один вопрос. Через какое время, хотя бы примерно яша заново сайт проиндексирует???
Тут, наверное, даже сам Яша не скажет. Но, зависит от того, как часто появляются новые статьи, лучше, чтобы была какая-то периодичность, второе, если контент уник, можно им написать. Тогда быстрее всё будет, но не факт.
Бредовая идея. Таким образом не попадут новые страницы в индекс.
Понятное дело, хотя как видно не для всех, что запрет нужно будет потом убрать после того как индекс очистится от старых страниц.
А восстановить урлы прошлых страниц тем более по кешу яши, или других ПС и лить на них потом новый контент это сопоставимо онанизму.