logo
25.10.2016 11:53
1
Ahoj všem,

potřebuji poradit s nahráním sql databáze pro wordpress, která má 28MB.
Používám EasyPHP Devserver, MySQL phpmyadmin verze 4.5.5.1

Velikostní limit pro nahrání db na localhost je 2MB, googlil jsem hodně chytrých manuálů, ale nic bohužel nefunguje tak jak má.

Má někdo zaručenou radu, jak tento limit navýšit?

Předem díky za odpovědi, pokud mi někdo dokáže poradit, dobré hodnocení ho nemine :-)

LD.

Co se právě děje na Webtrhu?

25.10.2016 11:57
2
čekal jsem nějakou velkou databázi ve stovkách MB, GB, ale takhle malou - buď zvýšit limit nebo otevřít třeba v PSPadu a po kouskách jí nahrát jako SQL dotazy
25.10.2016 12:00
3
V PHPMyAdmin si na localhostu můžete nastavit adresář, do kterého si uložíte dump databáze, a pak v PHPMyAdmin místo uploadu souboru vyberete tenhle už uložený soubor, může být klidně větší. Může se ovšem projevit omezení maximální doby běhu skriptu.
25.10.2016 12:31
4
a mě právě zajímá, jak zvýšit limit :)
25.10.2016 12:47
5
PHP change the maximum upload file size - Stack Overflow
25.10.2016 13:32
6
V Easy php v konfiguraci (php.ini) nastavíš upload_max_filesize na libovolnou hodnotu. Viz: http://stackoverflow.com/questions/4...ile-in-easyphp

Pomohlo to?
25.10.2016 13:38
7
Kód:
mysql -u root -p dbname < dbfile.sql
a je to.
25.10.2016 13:47
8
Adminer to umí. Stačí si na server nahrát adminer.php a do stejné složky nahrát databázi a tu pojmenovat adminer.sql. Pak se přihlásíte do databáze přes adminer, dáte Import a tam nahrání ze serveru.
25.10.2016 14:01
9
Díky, nevím čím to je ale zvýšit limit mi zkrátka nejde. Nahrál jsem to tam tedy po kouskách jako dotazy, a je vyřešeno.
25.10.2016 14:27
10
Po tom cos zvysil limit bys mel cely server restartovat, tedy alespon samostatne mysql
25.10.2016 15:26
11
Proč upravovat nastavení serveru, když to jde pěkně vyřešit přes Adminer?
25.10.2016 16:54
12
Použil bych Adminer. Do stejného adresáře, kde je adminer.php stačí nahrát soubor adminer.sql, kliknout na "Spustit soubor" a je to... Načítám tak i databáze přes 100 MB ;)

---------- Příspěvek doplněn 25.10.2016 v 16:55 ----------

Původně odeslal Whispere
Proč upravovat nastavení serveru, když to jde pěkně vyřešit přes Adminer?
Protože neznají Adminer, tak to dělají složitě ;)
25.10.2016 17:01
13
jak velkou databázi jste kdo kdy nejvic importoval / migroval?

Já ted nedavno asi 500 MB
25.10.2016 17:56
14
Původně odeslal pekova
jak velkou databázi jste kdo kdy nejvic importoval / migroval?

Já ted nedavno asi 500 MB
co je to za otazku? resp... jaky cekas ze bude vystup z dat co ti lidi reknou? Kdzy ti reknu ze sem uz migroval databaze o stovkach GB, k cemu ti takova informace bude? ...
25.10.2016 18:01
15
Aleši - zvědavost?

Původně odeslal pekova
jak velkou databázi jste kdo kdy nejvic importoval / migroval?

Já ted nedavno asi 500 MB
Asi 4.5 GB
26.10.2016 00:41
16
presne tak, je to ciste zvedavost a treba me i zajimaji zkusenosti presunu tak velke DB
26.10.2016 06:54
17
Původně odeslal pekova
jak velkou databázi jste kdo kdy nejvic importoval / migroval?

Já ted nedavno asi 500 MB
50 GB, ale jednalo sa o MS SQL.
26.10.2016 16:43
18
Můžete si stáhnout Wikipedii.. Ta má jen 4.65 GB
26.10.2016 16:47
19
Muj crawler ma asi 5TB ale to uz neni SQL no :(

Jinak bezne produkcni DB mam v desitkach GB (MySQL)
26.10.2016 17:10
20
datasety z cernu, které používám na testování databází mají stovky TB, celkově tam na stažení nabízejí několik PB dat, kdybyste někdo měl zájem a bylo vám líto, že máte menší databáze než ostatní :).

Popravdě ono nejde moc o velikost, v dnešní době naskládám běžně do jednoho 4U serveru 500TB dat za cenu cca do 2M, běžné datové 2U nody, s kterými se setkávám mají mezi 40TB - 80TB. Kapacita se dá snadno lineárně škálovat do obrovských rozměrů a PB databáze jsou už běžné i v českém prostředí; je to pouze o tom, že začnu přemýšlet v jiných jednotkách, i několik MB databáze může dělat neskutečné technické problémy na malých zařízeních a člověk může trávit týdny optimalizací, aby to běželo.

Chlubte se spíše do jak malých rozměrů jste byli schopní kolik dat uložit, vždyť lidská sekvence DNA má 300 TB a všichni mají přesně opačný cíl, zmenšit jí, ono totiž taková data poté zpracovávat je malý problém. Chlubit se tím, že neumím šetřit a mám neoptimalizovanou databázi je dost zvrhlé, mimochodem :)

gransy: ale klidně to v SQL mít můžeš, pokud jsi bohatý, terradata, netezza to umí, pokud jsi chudý hive/impala ti to také umožní ;), SQL rulezzz. Pokud bys chtěl velikost snížit třeba na polovinu, klidně ti s tím pomohu, ale pak už to nebude tak hezké kulaté číslo :)
26.10.2016 17:24
21
Původně odeslal TomášX
gransy: ale klidně to v SQL mít můžeš, pokud jsi bohatý, terradata, netezza to umí, pokud jsi chudý hive/impala ti to také umožní ;), SQL rulezzz. Pokud bys chtěl velikost snížit třeba na polovinu, klidně ti s tím pomohu, ale pak už to nebude tak hezké kulaté číslo :)
Pouzivam Cassandru a CQL, takze spokojenost :) spise jsem zvedavej na propojeni s Fulltextem (Solr) jak v tom mnozstvi bude fungovat (budu to resit u 300GB DB o miliardach zaznamu)
26.10.2016 18:46
22
Pokud ti jde o databázi samotného Wordpressu, doporučuju plugin "Duplicator". Ten umožňuje celý WP web přesunout na jinou adresu (třeba i na localhost), postará se i o přepsání odkazů v postech (a nejen tam). Používám to na webu s objemem kolem 50 MB a v pohodě.
26.10.2016 19:29
23
gransy: solr lineárně škáluje, s takovým objemem nemá problém a zvladne to jeden stroj/vpn s hodně jádry, záleží pouze kolik klientů bude paralelně dávat dotazy a škáluj to podle nich, ne podle množství dat, on ty indexy má uložené efektivně