μεγάλο φορτίο δεδομένων πωλητών

ψήφοι
0

Βρήκα παράξενο περιορισμό, θέλουν να ακούσουν αν κάποιος έχει επιλυθεί το ζήτημα.

Δήλωση Πρόβλημα: Τα στοιχεία του φορτίου στο πωλητών από το εξωτερικό. όγκος των δεδομένων είναι 1 εκατομμύριο εγγραφή σε μια ριπή, κάθε 3 ώρες.

εργαλείο μου ενορχήστρωση πηγή (Νύφι) είναι ικανή να κάνει αυτό πολλές REST API, αλλά Salesforce ζήτησε να μην χρησιμοποιούν REST με αυτό το πολύ απόδοση. Δεν είμαι σίγουρος αν το όριο των πωλητών ή των προϊόντων ομάδα έχει δημιουργήσει μια τεχνητή οροφή.

που έχουν προτείνει τη χρήση dataloader, η οποία φαίνεται να είναι ένα φορτωτή παρτίδα για Salesforce, αλλά δεν είναι τόσο γρήγορα, είτε. Επίσης έχει διαφορετικά ζητήματα. Δεν μπορώ να προκαλέσει dataloader, όταν παίρνω τα δεδομένα, έτσι δεν είναι ότι χρήσιμο ούτε.

Μεγάλος χρόνος πίσω έχω χρησιμοποιήσει Πληροφορική για να συνδεθείτε στο Salesforce, και χρησιμοποιείται για να περάσει παρόμοια ποσότητα των δεδομένων, και χωρίς πρόβλημα. Μπορεί κάποιος να απαντήσει πώς υποδοχή πληροφορική έχει λυθεί αυτό το ζήτημα συμφόρησης; τι να το χρησιμοποιήσετε κάτω;

και κάθε άλλος τρόπος για να ωθήσει αυτά τα πολλά δεδομένα για Salesforce;

Δημοσιεύθηκε 09/10/2019 στις 18:56
πηγή χρήστη
Σε άλλες γλώσσες...                            


1 απαντήσεις

ψήφοι
0

Σύντομη απάντηση: επανεξετάσουν την περίπτωση χρήσης σας. Ξαναγράψτε την εφαρμογή σας να χρησιμοποιεί διαφορετικό μηχανισμό σύνδεσης με SF.

Απάντηση: Πρότυπο API Salesforce (SOAP ή REST, δεν έχει σημασία) είναι σύγχρονη. Αίτηση-απόκρισης, δουλειά που έχει γίνει. Είναι περιορίζεται σε 200 εγγραφές max σε μια κλήση API. όγκους σας είναι πιο κατάλληλα για χύμα API. Εκείνο το ένα είναι REST μόνο (αν και μπορεί να δεχθεί XML, JSON ή CSV), μέχρι 10K αρχεία σε μια κλήση API. Η βασική διαφορά είναι ότι είναι ασύγχρονη. (; Κάθε 10 δευτερόλεπτα κάθε λεπτό) Μπορείτε να υποβάλουν την εργασία, μπορείτε να πάρετε πίσω id της εργασίας, μπορείτε να το ελέγξετε «είναι αυτό που κάνει ακόμα και αν είναι - να μου δώσει πίσω επιτυχία τα αποτελέσματά μου / αποτυχίας». Αλλά κάθε από τους ελέγχους αυτούς, φυσικά, θα καταναλώσει 1 κλήση API πάρα πολύ. Εν τω μεταξύ SF λάβει μια δέσμη των συμπιεσμένων αρχείων από εσάς και θα εργαστεί για την αποσυμπίεση και την επεξεργασία τους τόσο γρήγορα όσο επιτρέπουν οι πόροι.

Έτσι, (αγνοώντας την αρχική loginκλήση) ας μιλήσουμε για τα όρια. Σε περιβάλλοντα δοκιμών το όριο κυλιόμενου 24h κλήσεων API είναι 5 εκατομμύρια κλήσεις. Ογκώδης. Στην παραγωγή είναι 15K API κλήσεις + 1K ανά κάθε πλήρη άδεια χρήσης που έχετε (cloud πωλήσεων, το cloud υπηρεσία) + μπορείτε να αγοράσετε μεγαλύτερη χωρητικότητα ... Ή απλά πηγαίνετε στο Ρυθμίσεις -> Πληροφορίες για την εταιρεία και να ελέγξετε το όριο σας.

Ας υποθέσουμε ότι έχετε 5 χρήστες, ώστε 20K κλήσεις / ημέρα παραγωγής. Σε 24 ώρες σε μέγιστη χωρητικότητα θα είστε σε θέση να ωθήσει τα ένθετα 10K * 20K = 200M / ενημερώσεις. Λοιπόν, λίγο λιγότερο, λόγω της σύνδεσής κλήσεις και τον έλεγχο της κατάστασης και τραβώντας προς τα κάτω το αρχείο αποτελέσματα, αλλά ακόμα - αρκετά καλό. Αν αυτό δεν είναι αρκετό - έχετε μεγαλύτερα προβλήματα?) Με πρότυπο API θα σας αφήσει να πάει 200 ​​* 20Κ = απλή αρχεία 4M.

Υποστήριξη SF είπα να χρησιμοποιήσετε Data Loader γιατί DL είναι απλά επιλέγοντας ένα πλαίσιο ελέγχου για να χρησιμοποιήσετε χύμα API. Δεν με νοιάζει ότι ο μηχανισμός backend είναι διαφορετική. Θα μπορούσατε ακόμη και το σενάριο Δεδομένα Loader να τρέχει από την γραμμή εντολών ( https://resources.docs.salesforce.com/216/latest/en-us/sfdc/pdf/salesforce_data_loader.pdf κεφάλαιο 4). Ή αν είναι μια εφαρμογή Java - απλά ξανά το αρχείο JAR στην κορυφή του οποίου είναι χτισμένη DL UI.

Αυτά μπορεί να βοηθήσει πάρα πολύ:

Απαντήθηκε 10/10/2019 στις 01:50
πηγή χρήστη

Cookies help us deliver our services. By using our services, you agree to our use of cookies. Learn more