Program för att splitta sql-filer?

Diskutera vad som helst mellan himmel och jord! :)

Moderator: Moderatorgrupp

r3c
Medlem
Medlem
Inlägg: 14
Blev medlem: 2007-01-29 19:06
Svar: 0

Program för att splitta sql-filer?

Inlägg av r3c »

Någon som vet om något bra program för att splitta backupfilen i flera delar? eller någon som har någon bra idè på hur man skall få upp en fil på 100mb via phpmyadmin, där det finns en gräns på 26mb , men det går inte att skicka mer än 10 för då hänger det sig :(
Användarens profilbild
Kail
Administratör
Administratör
Inlägg: 2935
Blev medlem: 2003-06-03 13:53
Svar: 0
Ort: Linköping/Stockholm

Inlägg av Kail »

Nyare versioner av phpMyAdmin kan köra dumpar inkrementellt, dvs till exempel 50 000 queries åt gången för att undvika time out.

Begränsning vad gäller dumpens storlek är dock svårt att komma runt, det enda jag känner till är detta program (testperioden är lång nog för dina behov tror jag):
http://www.richtsoft.com/mysql_17_backup.html
Jakob Persson - Grundare av phpBB Sverige - IT-konsult - http://www.jakob-persson.com
The Complete phpBB Template Design Guide
1DeadlySAMURAI
Aktiv medlem
Aktiv medlem
Inlägg: 50
Blev medlem: 2005-04-14 14:05
Svar: 0
Ort: Vettet

Inlägg av 1DeadlySAMURAI »

Bigdump är bra att ha.
http://www.ozerov.de/bigdump.php

litet php script som lägger in stora filer direkt i databasen. :wink:
ImTheMan
Ny medlem
Ny medlem
Inlägg: 4
Blev medlem: 2006-03-13 23:50
Svar: 0

Inlägg av ImTheMan »

jag brukar exportera allt utom _posts, _posts_text,_search_wordlist och _search_wordmatch. sen exporterar jag strukturen för dem. därefter delar jag datan i så många delar det behövs för _posts respektive posts_text när jag exporterar dem, så på posts_text tar jag exempelvis först 75000 rader från rad 0 sen ytterligare 75000 rader från rad 75000 osv. så döper jag filer till *1of8 för att få lite ordning. söktabeelerna lämnar jag tomma för att hellre bygga upp igen.

allt zippat så passar det lagom under 10 MB för oss. och jag använder .zip istället för .gz då det ger högre hastigheter. antar att .gz komprimeras under tiden man laddar ner medans .zip komprimeras färdigt innan nerladdningen startar.

ovanstående exempel gäller då givetvis phpbb2, men gissningvis är det inte ovanligt att det mesta av utrymmet i en databas finns i en eller några få tabller så att samma metod går att använda där.

jag har använt en automatisk splitter nån gång, men probelmet var att den delade efter det antal rader man valde, och det är inte optimalt då olika tabeller givetvis har så olika antal byten/rad i snitt så det blev för omständigt.

ja, och om jag bara har tillgång till en backup som inte är utformad som jag vill ha den så lägger jag upp den lokalt på datorn så att jag kan stycka upp den som vill i phpmyadmin sen.
Skriv svar

Vilka är online

Användare som besöker denna kategori: 20 och 0 gäster