Συμφωνώ με τον Κωνσταντίνο. Τώρα όσον αφορά την ακριβή μεθοδολογία για την απόκτηση των δεδομένων από το αρχείο και την εισαγωγή τους στη βάση, εξαρτάται από τον κάθε developer και τους διαθέσιμους πόρους συστήματος... πχ άλλη προσέγγιση θα υπάρξει σε ένα vps με 512ΜΒ μνήμη και απλό σκληρό και άλλη σε dedicated με 4~8GB μνήμη και SSD.Πέρα από το erp υπάρχουν και άλλες λύσεις.
Μία από αυτές, είναι να δημιουργήσεις έναν parser σε php που θα κατεβάζει το xml ή το excel ή csv στον server και μετά θα το διαβάζει κάθε 50-50 γραμμές. Όσες χιλιάδες προϊόντα και να είναι δε θα πέσει ούτε το site και ούτε θα το καταλάβει καν ο server αρκεί ο κώδικας που το τρέχει είναι σωστός.
Επίσης θα ήθελα να προσθέσω μία ακόμη παράμετρο στην κουβέντα. Επειδή ένα τέτοιο script θα τρέχει στα "τυφλά", σαν ένα μέτρο ασφαλείας πριν πραγματοποιηθεί η αναβάθμιση μέσω Cron, καλό θα ήταν στο script του Cron να υπάρχει ένας έλεγχος της κατάστασης των πόρων του συστήματος. Όλα τα γιουνιξοειδή συστήματα διαθέτουν κάποια μέθοδο ελέγχου των πόρων συστήματος. Μία απλή μέθοδος θα ήταν να δούμε τη χρήση επεξεργαστή/μνήμης με:
Code: Select all
uptime | awk '{print $8}' # AVG CPU load 1min
uptime | awk '{print $9}' # AVG CPU load 5min
uptime | awk '{print $10}' # AVG CPU load 15min
grep MemFree /proc/meminfo | awk '{print $2}' # Memory Free
grep Cached /proc/meminfo | awk '{print $2}' # Memory Cached