Πώς μπορώ να κάνω ροή μιας ηχογράφησης σε πραγματικό χρόνο σε ιονική στο Firebase;

ψήφοι
49

Προσπαθώ να εφαρμόσω την αναγνώριση ομιλίας σε κείμενο σε πραγματικό χρόνο με την υπηρεσία Google API χρησιμοποιώντας το Ionic ως frontend. Δεν μπορώ να βρω μια βιβλιοθήκη που μπορεί να εγγράψει από το Ionic και να κάνει streaming της εγγραφής σε πραγματικό χρόνο για να αποθηκευτεί στο χώρο αποθήκευσης του κάδου google. Έχετε κάποιες προτάσεις;

Δημοσιεύθηκε 01/06/2020 στις 17:40
πηγή χρήστη
Σε άλλες γλώσσες...                            


2 απαντήσεις

ψήφοι
0

Υποθέτοντας ότι θέλετε να χρησιμοποιήσετε το πλαίσιο React Native. Μπορείτε να κάνετε checkout Media plugin από το Ionic framework που μπορεί να χρησιμοποιηθεί για την εγγραφή των αρχείων ήχου. Εδώ είναι ένα παράδειγμα (το οποίο αναπτύχθηκε χρησιμοποιώντας γωνιακό, αλλά μπορείτε να κατανοήσετε την υποκείμενη έννοια). Επίσης, για τη χρήση του Firebase για ροή σε πραγματικό χρόνο, ρίξτε μια ματιά στην προσθήκη Firebase.

Υπάρχει μια προσθήκη ροής πολυμέσων, η οποία μπορεί επίσης να χρησιμοποιηθεί στην περίπτωσή σας. Για περισσότερη αναφορά, θα πρότεινα τη χρήση της επίσημης τεκμηρίωσης και την εξέταση αυτής της ανάρτησης ιστολογίου

Απαντήθηκε 04/06/2020 στις 04:06
πηγή χρήστη

ψήφοι
0

Δεν νομίζω ότι πρέπει να χρησιμοποιήσετε κάποια ειδική βιβλιοθήκη / προσθήκη για να το κάνετε αυτό, μπορείτε απλώς να χρησιμοποιήσετε τις Τεχνολογίες Ιστού για να το επιτύχετε αυτό χρησιμοποιώντας το MediaDevices API για να λάβετε τοUserMedia για λήψη ροής ήχου από μικρόφωνο συσκευής και χρήση του Web Speech API για αναγνώριση ομιλίας και Χρησιμοποιήστε το WebSocket για μετάδοση ροής ήχου σε πραγματικό χρόνο στο Google Speech-to-Text API και επιστροφή σε πραγματικό χρόνο απόκρισης.

Για περαιτέρω ανάγνωση, ελέγξτε τους ακόλουθους πόρους:

Παροχή μιας ομαλής ομιλίας μεταξύ προγραμμάτων περιήγησης στην εμπειρία κειμένου

Μιλώντας με μια Ιστοσελίδα - Μεταγραφή μεταγραφών ομιλίας

Απαντήθηκε 07/06/2020 στις 23:51
πηγή χρήστη

Cookies help us deliver our services. By using our services, you agree to our use of cookies. Learn more