Zadejte hledaný výraz...

Nahrání velké databáze.sql

pekova
verified
rating uzivatele
(23 hodnocení)
26. 10. 2016 00:41:54
presne tak, je to ciste zvedavost a treba me i zajimaji zkusenosti presunu tak velke DB
26. 10. 2016 00:41:54
https://webtrh.cz/diskuse/nahrani-velke-databaze-sql/strana/2#reply1232931
qwertr
verified
rating uzivatele
(7 hodnocení)
26. 10. 2016 06:54:35
Napsal pekova;1334229
jak velkou databázi jste kdo kdy nejvic importoval / migroval?
Já ted nedavno asi 500 MB
50 GB, ale jednalo sa o MS SQL.
26. 10. 2016 06:54:35
https://webtrh.cz/diskuse/nahrani-velke-databaze-sql/strana/2#reply1232930
Luděk Kvapil
verified
rating uzivatele
26. 10. 2016 16:43:01
Můžete si stáhnout Wikipedii.. Ta má jen 4.65 GB
26. 10. 2016 16:43:01
https://webtrh.cz/diskuse/nahrani-velke-databaze-sql/strana/2#reply1232929
Muj crawler ma asi 5TB ale to uz neni SQL no :(
Jinak bezne produkcni DB mam v desitkach GB (MySQL)
26. 10. 2016 16:47:32
https://webtrh.cz/diskuse/nahrani-velke-databaze-sql/strana/2#reply1232928
TomasX
verified
rating uzivatele
(4 hodnocení)
26. 10. 2016 17:10:57
datasety z cernu, které používám na testování databází mají stovky TB, celkově tam na stažení nabízejí několik PB dat, kdybyste někdo měl zájem a bylo vám líto, že máte menší databáze než ostatní :).
Popravdě ono nejde moc o velikost, v dnešní době naskládám běžně do jednoho 4U serveru 500TB dat za cenu cca do 2M, běžné datové 2U nody, s kterými se setkávám mají mezi 40TB - 80TB. Kapacita se dá snadno lineárně škálovat do obrovských rozměrů a PB databáze jsou už běžné i v českém prostředí; je to pouze o tom, že začnu přemýšlet v jiných jednotkách, i několik MB databáze může dělat neskutečné technické problémy na malých zařízeních a člověk může trávit týdny optimalizací, aby to běželo.
Chlubte se spíše do jak malých rozměrů jste byli schopní kolik dat uložit, vždyť lidská sekvence DNA má 300 TB a všichni mají přesně opačný cíl, zmenšit jí, ono totiž taková data poté zpracovávat je malý problém. Chlubit se tím, že neumím šetřit a mám neoptimalizovanou databázi je dost zvrhlé, mimochodem :)
gransy: ale klidně to v SQL mít můžeš, pokud jsi bohatý, terradata, netezza to umí, pokud jsi chudý hive/impala ti to také umožní ;), SQL rulezzz. Pokud bys chtěl velikost snížit třeba na polovinu, klidně ti s tím pomohu, ale pak už to nebude tak hezké kulaté číslo :)
26. 10. 2016 17:10:57
https://webtrh.cz/diskuse/nahrani-velke-databaze-sql/strana/2#reply1232927
Napsal TomášX;1334466
gransy: ale klidně to v SQL mít můžeš, pokud jsi bohatý, terradata, netezza to umí, pokud jsi chudý hive/impala ti to také umožní ;), SQL rulezzz. Pokud bys chtěl velikost snížit třeba na polovinu, klidně ti s tím pomohu, ale pak už to nebude tak hezké kulaté číslo :)
Pouzivam Cassandru a CQL, takze spokojenost :) spise jsem zvedavej na propojeni s Fulltextem (Solr) jak v tom mnozstvi bude fungovat (budu to resit u 300GB DB o miliardach zaznamu)
26. 10. 2016 17:24:33
https://webtrh.cz/diskuse/nahrani-velke-databaze-sql/strana/2#reply1232926
storyboard
verified
rating uzivatele
26. 10. 2016 18:46:40
Pokud ti jde o databázi samotného Wordpressu, doporučuju plugin "Duplicator". Ten umožňuje celý WP web přesunout na jinou adresu (třeba i na localhost), postará se i o přepsání odkazů v postech (a nejen tam). Používám to na webu s objemem kolem 50 MB a v pohodě.
26. 10. 2016 18:46:40
https://webtrh.cz/diskuse/nahrani-velke-databaze-sql/strana/2#reply1232925
TomasX
verified
rating uzivatele
(4 hodnocení)
26. 10. 2016 19:29:45
gransy: solr lineárně škáluje, s takovým objemem nemá problém a zvladne to jeden stroj/vpn s hodně jádry, záleží pouze kolik klientů bude paralelně dávat dotazy a škáluj to podle nich, ne podle množství dat, on ty indexy má uložené efektivně
26. 10. 2016 19:29:45
https://webtrh.cz/diskuse/nahrani-velke-databaze-sql/strana/2#reply1232924
Pro odpověď se přihlašte.
Přihlásit