Velký import CSV -> MySQL
Petr Holomoj
7. 11. 2014 13:37:43
7. 11. 2014 13:37:43
sh
7. 11. 2014 13:43:02
7. 11. 2014 13:43:02
acidclick
7. 11. 2014 13:46:24
7. 11. 2014 13:46:24
Petr Holomoj
7. 11. 2014 14:02:44
7. 11. 2014 14:02:44
Kovboj
7. 11. 2014 14:08:50
7. 11. 2014 14:08:50
Petr Holomoj
7. 11. 2014 14:27:50
7. 11. 2014 14:27:50
Kovboj
7. 11. 2014 14:56:27
7. 11. 2014 14:56:27
Martin
7. 11. 2014 15:05:58
7. 11. 2014 15:05:58
Petr Holomoj
7. 11. 2014 20:12:53
7. 11. 2014 20:12:53
Smazany ucet 253
14. 11. 2014 02:10:53
---------
"); // tady si můžeš zkontrolovat, jak ten hromadný insert vypadá ... // nyní vynulujeme základní SQL příkaz $query = $baseQuery; // přičteme dávku $doseCounter += $dose; } } // na konci musíme zkontrolovat, jestli celkové množství dat není náhodou větší než počet vložených dat po určité dávce ... if ($x > $doseCounter) { // pokud nám ještě nějaká data zbyla, tak je vložíme posledním hromadným příkazem... //$mysqli->query( rtrim($query, ',') ); printf( rtrim($query,',') . "
---------
"); } ?> ---------- Příspěvek doplněn 14.11.2014 v 02:20 ----------InnoDB je pro hromadné vkládání zkrátka pomalé (zkoušel jsem půl milionu insertů a rozdíl mezi InnoDB a MyISAM byl několik minut). Takže dávkovat a kontrolovat MAX_EXECUTION_TIME (získáš ho $maxTime = ini_get('max_execution_time'); ) ... poté v průběhu scriptu kontrolovat čas a pokud dosáhneš 90%, tak vytvořit soubor, kde bude nějaké ID posledního řádku ... pokud tento souboru bude existovat, tak ho na začátku scriptu otevřeš, načteš si ID, přeskočíš předchozí řádky a pokračuješ dokud nedojde script konce....) ... takto mi fungují například čtečky feedů, které mají přes 50MB a více než 20 tisíc produktůsnad to pomůže ...
14. 11. 2014 02:10:53
Prodej
Více
Adult Inzerce – pro pracující dívky
9 900 Kč
0 příhozů
Kreativní Omalovánky – prodej digitálních produktů
20 000 Kč
0 příhozů
💸 Srovnavač půjček abpujcky.cz
50 000 Kč
0 příhozů
P: databáze všech domén (všechny TLD) s automaticky aktualizovaným WHOIS
1 000 Kč
0 příhozů