- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
а с нового сервера нет возможности подключиться к мускулю и вытащить данные? по средствам того же phpmyadmina указав удалённый хост?
А попросить саппорт хостера - не?
саппорт посылает в фак про mysqldump :)
проблема в том, что только одна таблица занимает 1гиг, поэтому разделить ее невозможно
всеми возможными средствами я пытался ее утянуть, но всегда сервер меня отключает за превышение лимита доступа:
т.е. здесь выхода два: просить саппорт либо искать прогу, которая делает паузу между запросами
dspu добавил 15.05.2008 в 12:24
Кстати, какой движок у БД (isam, inno)?
ENGINE=MyISAM
Можно написать скрипт который вытащит данные кусками в какой либо формат (допустим по 100000 рядов в CSV). Проверено :)
Можно написать скрипт который вытащит данные кусками в какой либо формат (допустим по 100000 рядов в CSV). Проверено :)
да в тот же sypex dumper можно встроить задержку между запросами, знать бы как 🙄
А по каким-нибудь признакам поделить табличку на куски нельзя?
select ... where id >500 and id < 1000 ... | ssh ...
dspu, http://www.phpmybackuppro.net/ попробуйте его
1гб это же ведь давно не занебесные размеры, я не вижу проблем тут.
Можно дербанутъ файл на части и скачать по частям на динарном уровне или поставить просто качалку с ограничение по скорости, поставте 100-200кб на скачку файла.
Можно более оригинально подойти, а именно подобные базы данных обычно содержать очень много не нужны вещей т.е. берете чистите базу, соотвественно она уменьшается в размере, после чего уже экспортируете или как было уже выше сказано, выбираете таблицы, которые весят больше всего, переносите их отдельно, потом все остальное обычным дампом, короче немного фантазии ив се получиться.
Здравствуйте, устанавливаете на обеих серверах скрипт с сайта http://sypex.net/files/SypexDumperLite_108.zip и будет Вам счастье. делает дампы любых размеров, а перетащить можно как по средствам ftp, так и по wget.
Прога отличная, не раз меня выручала. Правда она базу все равно на сервак складывает а уже затем ее скачать оттуда можно, а у ТС траблы с местом. Правда по скорости и по сжатию ей нет равных. Так же она может переконвертить базу в любую кодировку, а это огромный плюс при переезде :)
одна таблица занимает 1гиг, поэтому разделить ее невозможно
А по каким-нибудь признакам поделить табличку на куски нельзя?
select ... where id >500 and id < 1000 ... | ssh ...
Ну зачем так извращаться, есть же опция LIMIT
Кстати, есть еще опция INTO OUTFILE (INTO DUMPFILE). В сочетании с LIMIT вытащит ваши базы запросто.
Ну зачем так извращаться, есть же опция LIMIT
Кстати, есть еще опция INTO OUTFILE (INTO DUMPFILE). В сочетании с LIMIT вытащит ваши базы запросто.
странно, что нет такого готового софта :(
проблему решил через саппорт