Program för att splitta sql-filer?
Moderator: Moderatorgrupp
Program för att splitta sql-filer?
Någon som vet om något bra program för att splitta backupfilen i flera delar? eller någon som har någon bra idè på hur man skall få upp en fil på 100mb via phpmyadmin, där det finns en gräns på 26mb , men det går inte att skicka mer än 10 för då hänger det sig
Nyare versioner av phpMyAdmin kan köra dumpar inkrementellt, dvs till exempel 50 000 queries åt gången för att undvika time out.
Begränsning vad gäller dumpens storlek är dock svårt att komma runt, det enda jag känner till är detta program (testperioden är lång nog för dina behov tror jag):
http://www.richtsoft.com/mysql_17_backup.html
Begränsning vad gäller dumpens storlek är dock svårt att komma runt, det enda jag känner till är detta program (testperioden är lång nog för dina behov tror jag):
http://www.richtsoft.com/mysql_17_backup.html
Jakob Persson - Grundare av phpBB Sverige - IT-konsult - http://www.jakob-persson.com
The Complete phpBB Template Design Guide
The Complete phpBB Template Design Guide
-
- Aktiv medlem
- Inlägg: 50
- Blev medlem: 2005-04-14 14:05
- Ort: Vettet
Bigdump är bra att ha.
http://www.ozerov.de/bigdump.php
litet php script som lägger in stora filer direkt i databasen.
http://www.ozerov.de/bigdump.php
litet php script som lägger in stora filer direkt i databasen.
jag brukar exportera allt utom _posts, _posts_text,_search_wordlist och _search_wordmatch. sen exporterar jag strukturen för dem. därefter delar jag datan i så många delar det behövs för _posts respektive posts_text när jag exporterar dem, så på posts_text tar jag exempelvis först 75000 rader från rad 0 sen ytterligare 75000 rader från rad 75000 osv. så döper jag filer till *1of8 för att få lite ordning. söktabeelerna lämnar jag tomma för att hellre bygga upp igen.
allt zippat så passar det lagom under 10 MB för oss. och jag använder .zip istället för .gz då det ger högre hastigheter. antar att .gz komprimeras under tiden man laddar ner medans .zip komprimeras färdigt innan nerladdningen startar.
ovanstående exempel gäller då givetvis phpbb2, men gissningvis är det inte ovanligt att det mesta av utrymmet i en databas finns i en eller några få tabller så att samma metod går att använda där.
jag har använt en automatisk splitter nån gång, men probelmet var att den delade efter det antal rader man valde, och det är inte optimalt då olika tabeller givetvis har så olika antal byten/rad i snitt så det blev för omständigt.
ja, och om jag bara har tillgång till en backup som inte är utformad som jag vill ha den så lägger jag upp den lokalt på datorn så att jag kan stycka upp den som vill i phpmyadmin sen.
allt zippat så passar det lagom under 10 MB för oss. och jag använder .zip istället för .gz då det ger högre hastigheter. antar att .gz komprimeras under tiden man laddar ner medans .zip komprimeras färdigt innan nerladdningen startar.
ovanstående exempel gäller då givetvis phpbb2, men gissningvis är det inte ovanligt att det mesta av utrymmet i en databas finns i en eller några få tabller så att samma metod går att använda där.
jag har använt en automatisk splitter nån gång, men probelmet var att den delade efter det antal rader man valde, och det är inte optimalt då olika tabeller givetvis har så olika antal byten/rad i snitt så det blev för omständigt.
ja, och om jag bara har tillgång till en backup som inte är utformad som jag vill ha den så lägger jag upp den lokalt på datorn så att jag kan stycka upp den som vill i phpmyadmin sen.
Vilka är online
Användare som besöker denna kategori: 20 och 0 gäster