Das kann man doch direkt in phpmyadmin importieren, ist doch eine xls datei oder? Weil dann wäre vllt. die Chanche eine Fehlermeldung zu bekommen.
Gruß
Gremlin
Das kann man doch direkt in phpmyadmin importieren, ist doch eine xls datei oder? Weil dann wäre vllt. die Chanche eine Fehlermeldung zu bekommen.
Gruß
Gremlin
Diskutiere nie mit Idioten - sie holen Dich auf ihr Niveau und schlagen Dich dort mit Erfahrung!
Die einzige Fehlermeldung, die da auftauchen wird, ist ein "Datei nicht gefunden", weil die CSV mehr als 2 MB größe hat und (default) in der php.ini eine Uploadgröße von 2 MB eingestellt ist
Mein Addon in der Hinsicht hat da allerdings noch keine Lösung eingebaut, ich werde es wohl über eine for-while machen
http://pw.country.mt.money-island.eu/
Das hat mich bei meiner Fehleranalys schon ein ganzes Stück vorwärts gebracht...
Bei mir folgendes Problem:
Der Cron spuckt am Ende aus:
Premature end of script headers: cron.php
So, wenn ich aber nun hingehe (darauf kam ich wegen breaker) und lösche 70% der CSV läuft der cron ohne probleme durch.
Die neue CSV von November 09 ist mitlerweile 5mb gross, wie löse ich das Problem nun permanent & elegant, das der Cron auch sagen wir mal dateien bis 7mb frisst? Die php.ini hab ich leider nicht gefunden
Danke aber schonmal an Breaker fürs heranführen an das Problemchen![]()
Das sollte dein Problem wohl lösen können
http://www.libe.net/themen/2MB-Upload-PHP.php
mhh, ne leider nicht- besagtes programm da läuft nicht wirklich bei mir, wird wohl aber da in dem Forum auch oft gesagt das es nicht funzt-
Die php.ini hab ich auch nicht gefunden, hab kein server gerade sondern nur webspace, daher.... Bei meinem Provider im faq auch nix gefunden dazu- nur wei ich das meine Limits sogar reichen wohl- zumindest geht bis 80mb, nur ist es zeitlich auf 60 sek limitiert und das reicht wohl nicht.
Ich dachte halt es wäre evtl leichter scriptseitig zu lösen, da ja die alte liste immer gelöscht wird bevor die neue reingezogen wird- könnt ich das löschen vermeiden, könnte ich ja selber die Einträge auf 3-5 Dateien splitten und nacheinander reinjagen bis alle drin sind. Andererseits werden die ip's doch in der datenbank laendercode gespeichert... Auf dem dedicated Server vom Kollegen klappte es sofort, könnte ich nicht einfach den inhalt per phpMyAdmin exportieren und importieren und quasi selbst die db befüllen?
Weil auf die nächste Aktualisierung kann ich auch erstmal verzichten, hauptsache ich kriege die 5mb schonmal rein, das ist schon die wichtigste Grundlage
Mal sehen was der provider Support dazu sagt, ärgerlich das ic
hm also wenn dir die zeit zum ausführen des crons nicht reicht
sollte dir das helfen
so sind aber nur die ip's aus DE AT und CH in der liste:
suche
ersetze mitPHP-Code:
$anfuegen = db_query("INSERT INTO laendercode (IP_FROM, IP_TO, CC2, CC3, land) values ('$werte_array[0]','$werte_array[1]','$werte_array[2]','$werte_array[3]','$werte_array[4]')");
PHP-Code:
if ($werte_array[2] == 'DE' OR $werte_array[2] == 'AT' OR $werte_array[2] == 'CH'){
$anfuegen = db_query("INSERT INTO laendercode (IP_FROM, IP_TO, CC2, CC3, land) values ('$werte_array[0]','$werte_array[1]','$werte_array[2]','$werte_array[3]','$werte_array[4]')");
}
MFg Lokutos
SwissNetWorX - VMS Hosting / V-Server / Cloud-Server / Hosting