- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Воспринимайте это только, как опыт и не расстраивайтесь, гораздо хуже было бы, если бы эта ситуация произошла с Вами, когда у Вас было бы 100к хостов на проекте и Вы также безответственно подходили к сохранности своих данных уже на выделенных серверах, поверьте, были у нас и такие случаи. Не посчастливилось Вам научиться на чужих ошибках - придется на своих.
Бекапы нужно делать самостоятельно, что бы там не обещал хостер!
Мы клиентам не делаем бекапы, не приучиваем к дурному, к тому же многим проектам по просту не нужны ежедневные или еженедельные бекапы, это только грузит сервер, кому-то вообще достаточно бекапировать только базу, а у кого-то сайт не меняется годами, смысл предоставлять бесполезную услугу всем подряд? По моему глубокому убеждению доверять столь важный процесс нам просто нельзя. Причина в том, что аккаунтов тысячи, и как бы мы не старались, мы можем что-то упустить, клиентов много, и именно в тот момент, когда Вам понадобиться бекап - он может оказаться поврежденным из-за ошибки, которую не заметили. Если клиенту не важна сохранность его данных, то почему она должна быть важна нам?
Я всегда приучаю людей к тому, что надо не лениться и делать самостоятельно. Не делаете - потом некого обвинять, кроме себя.
все верно, не было бы бекапа вообще я бы делала его сама. разбаловали...ну не все такие серые как я, знают, что могут и бекапы на хостинге полететь...так мне и хостер ткнул в морду, типа мы не обязаны...а толку то тогда в этих бэкапах...
maviska, контент вытягивайте из кеша ПС, если не восстановят. Супер страшного ничего не произошло.
maviska, контент вытягивайте из кеша ПС, если не восстановят. Супер страшного ничего не произошло.
я вот об этом же сейчас думаю, но как вытягивать...у меня код защиты текста от выделения был...не скопировать даже тупо, из источника кода вынимать заколебусь, плюс картинки ( особенно мастер классы вообще тихий ужас что меня ждет, перелинковка, точный адрес страницы вписывать...где то 500 статей. это кошмарик.что уж говорить про зарплату копирайтера, которая не хилая . подожду до завтрашнего утра...не знаю смогу ли я заснуть, может уговорю коньячок....
maviska, это не кошмарик, а пару минут работы для парсера =)
maviska, это не кошмарик, а пару минут работы для парсера =)
ага эта мысль уже тоже пришла мне в голову, только вот как незнакомому парсеру доверить 700 статей убитого сайта, где гарантия что он их себе не приватизирует?
интересно хостер уложится в обещанные 12 часов...
А в случае чего (хорошо бы не пришлось конечно) у Вас будет выбор?
А в случае чего (хорошо бы не пришлось конечно) у Вас будет выбор?
ну пока думаю все вручную тащить из кеша гугла, у меня все страницы проиндексированны. если конечно не выплюнет как не рабочие раньше времени...
а самой то никак не спарсить да? может програмку прикупить достаточно?
maviska, конкретно в вашем случае довериться знающим людям. И там, и там.
Хостер пусть восстанавливает информацию, а вы настраивайтесь нанять специалиста для восстановления сайта из кэша.
ну пока думаю все вручную тащить из кеша гугла, у меня все страницы проиндексированны. если конечно не выплюнет как не рабочие раньше времени...
а самой то никак не спарсить да? может програмку прикупить достаточно?
а вдруг автор вшил в программу отправку результатов парсинга к себе на email и присвоит их? Так что довериться все равно придется. :)
Идете на web.archive.org вводите свой сайт и ищите последнюю дату снапшота. После, если дата устраивает идем на r-tools.org, регистрируемся и восстанавливаем сайт в панели. Есть бесплатные страницы после реги. Вам должно хватить. Сайт восстанавливается ввиде статических страниц, но вполне юзабельно и можно даже подставить на первое время на хостинг. чтоб не вылетели страницы из индекса.