- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Поскольку многие сайты ддосят, некоторые надолго падают из-за кривого хостинга, не продления доменов и т.д., становится актуальным чтение кэшированных страниц этих сайтов, например, в Гугле. Но переходить по ссылкам не получится - они ведут на сам сайт, а не кэшированную версию.
Существует ли сервис, который позволяет ходить по кэшированным версиям страниц так же, как по самому сайту? Чтобы можно было выбирать поисковик, определялась дата сохраненки, количество страниц в кэше.
Вебархив не предлагать - у него другое предназначение: сохранить вид сайтов для будущих внуков.
если юзать хром - то зайдя на страницу, которая не открывается и если у нее есть кеш в гугле - гугл предлагает посмотреть ее кеш.
гугл предлагает посмотреть ее кеш.
вариант неплохой, только лишних телодвижений многовато.
Существует ли сервис, который позволяет ходить по кэшированным версиям страниц так же, как по самому сайту? Чтобы можно было выбирать поисковик, определялась дата сохраненки, количество страниц в кэше.
Предлагаете реализовать связку текст+картинки, в то время как TinEye и ВебАрхив при нехилом финансировании еле справляются?
Но переходить по ссылкам не получится - они ведут на сам сайт, а не кэшированную версию.
Предлагаете реализовать связку текст+картинки, в то время как TinEye и ВебАрхив при нехилом финансировании еле справляются?
Картинки и текст будут браться из индекса поисковиков. Сам сервис должен только подменять все ссылки на аналогичные из кэша.
Картинки и текст будут браться из индекса поисковиков. Сам сервис должен только подменять все ссылки на аналогичные из кэша.
Проставить webcache.googleusercontent.com/search?q=cache: перед всем, что начинается с http не трудно, тем более не очень трудно проверять заголовки на наличие 200-й. Могу написать на php, но популярность сервиса сомнительна и постоянно нужны свежие прокси.
Могу написать на php, но популярность сервиса сомнительна
Разве вам не попадаются интересные, но лежащие сайты? :)
и постоянно нужны свежие прокси.
Таки да. Но если не чекать на код 200, а просто менять ссылки вслепую, то будет работать и без прокси.
P.S. Добавил голосовалку.
Проставить webcache.googleusercontent.com/search?q=cache: перед всем, что начинается с http не трудно, тем более не очень трудно проверять заголовки на наличие 200-й. Могу написать на php, но популярность сервиса сомнительна и постоянно нужны свежие прокси.
Нет, там сложней желательно сделать: многопоточную проверку - есть ли страница по ссылке в кеше или нет. Если нет - помечать (цветом, иконкой, фоном, видом курсора) недоступность ссылки.
2ТС - имхо в виде cgi-proxy севис сделать самое то. Ведь так универсальней будет. Просто серфить по кешу - обычный сервис.
А вот возможность восстановления сайтов из кеша с помощью телепорта какого-нибудь - можно сделать платной опцией (например, в бесплатной ограничение: недоступные ссылки как-нибудь стремно помечаются, чтобы нельзя было использовать в продакшене)
Имхо полезный был бы сервис, я бы пользовался.
arkadiy_a добавил 23.06.2011 в 01:45
Разве вам не попадаются интересные, но лежащие сайты?
Сеошникам, при ручном отборе доноров, учитывая среднебольничные цифры (ну например 99.5%) по доступности сайтов, временно лежащих сайтов в день пара-тройка набирается.
Чтобы не помечать себе "зайти позже на сайт", можно по кешу примерно понять, - насколько потенциальный донор похож на гс.
я не собираюсь разрабатывать такой сервис, так что если кто возьмется - милости просим. Пользовался бы сам и давал бесплатные советы по улучшению функционала.
думаю, если б был, люди пользовались бы. а вообще, такие вопросы нужно проверять на практике - тогда ответ более точный.