hadoop mapreduce tutorial with examples what is mapreduce
Σε αυτό το σεμινάριο, θα καταλάβουμε τι είναι το MapReduce, τα πλεονεκτήματά του και πώς λειτουργεί το Hadoop Map Reduce με παραδείγματα:
Στο προηγούμενο σεμινάριο, μάθαμε για το Hadoop HDFS και τους μηχανισμούς ανάγνωσης και γραφής. Τώρα ας εξερευνήσουμε ένα άλλο στοιχείο Hadoop, δηλαδή το MapReduce.
Ας εξετάσουμε λεπτομερώς τα ακόλουθα:
- Τι είναι το MapReduce;
- Τα οφέλη του
- Ποια είναι η ακριβής προσέγγιση του MapReduce;
=> Επισκεφτείτε εδώ για την αποκλειστική σειρά εκπαιδευτικών μαθημάτων BigData.
Τι θα μάθετε:
Τι είναι το MapReduce;
Ας προχωρήσουμε και να ξεκινήσουμε με τα Hadoop Components. Όπως εξηγήθηκε προηγουμένως, υπάρχουν δύο βασικά συστατικά του Hadoop, δηλαδή Hadoop HDFS και Hadoop Map Reduce.
Το Hadoop HDFS είναι ένα σύστημα διανομής αρχείων που χρησιμοποιείται για την αποθήκευση τεράστιου όγκου δεδομένων σε πολλά ράφια.
Εδώ θα συζητήσουμε τη μονάδα επεξεργασίας του Hadoop, δηλαδή το MapReduce.
Το επόμενο ερώτημα που προκύπτει είναι 'τι είναι το Map Reduce και γιατί απαιτείται;'
Το Hadoop MapReduce είναι το 'Μονάδα επεξεργασίας' και χρησιμοποιώντας αυτό το στοιχείο, μπορούμε να επεξεργαστούμε τα Big Data που είναι αποθηκευμένα στο Hadoop HDFS.
Αλλά ποια είναι η ακριβής απαίτηση; Γιατί χρειαζόμαστε αυτό το συστατικό του Hadoop;
Τα μεγάλα δεδομένα που είναι αποθηκευμένα στο Hadoop HDFS δεν αποθηκεύονται παραδοσιακά. Τα δεδομένα χωρίζονται σε κομμάτια δεδομένων που αποθηκεύονται στους αντίστοιχους DataNodes. Έτσι, ολόκληρα τα δεδομένα δεν αποθηκεύονται σε μια κεντρική τοποθεσία.
Ως εκ τούτου, μια εγγενής εφαρμογή πελάτη όπως η Java ή οποιαδήποτε τέτοια εφαρμογή δεν μπορεί να επεξεργαστεί τα δεδομένα στην τρέχουσα μορφή και χρειαζόμαστε ένα ειδικό πλαίσιο που μπορεί να επεξεργαστεί τα κατακερματισμένα μπλοκ δεδομένων που είναι αποθηκευμένα στους αντίστοιχους DataNodes.
Η επεξεργασία γίνεται χρησιμοποιώντας την επεξεργασία Hadoop MapReduce.
Περιορισμός χάρτη με λίγα λόγια
Το παραπάνω διάγραμμα παρέχει μια επισκόπηση του Map Reduce, των χαρακτηριστικών και των χρήσεών του.
Ας ξεκινήσουμε με τις εφαρμογές του MapReduce και πού χρησιμοποιείται. Για παράδειγμα, χρησιμοποιείται για Ταξινομητές, ευρετηρίαση και αναζήτηση , και Δημιουργία του Κινητήρες σύστασης σε ιστότοπους ηλεκτρονικού εμπορίου (Flipkart, Amazon κ.λπ.) Χρησιμοποιείται επίσης ως Ανάλυση από πολλές εταιρείες.
Όταν βλέπουμε από τη σκοπιά των χαρακτηριστικών, είναι ένα Μοντέλο προγραμματισμού και μπορεί να χρησιμοποιηθεί για Διανομή μεγάλης κλίμακας Μοντέλο όπως το Hadoop HDFS και έχει την ικανότητα Παράλληλου Προγραμματισμού που το καθιστά πολύ χρήσιμο.
Όταν βλέπουμε τις συναρτήσεις στο Map Reduce, εκτελούνται δύο συναρτήσεις, δηλαδή το Map Function και το Reduce.
Αυτή η τεχνολογία έχει εφαρμοστεί από μεγάλους οργανισμούς όπως το Google, το Yahoo, το Facebook και επίσης υιοθετήθηκε από το Apache Hadoop όπως HDFS, PIG, HIVE και για την αποθήκευση δεδομένων ή την εκτέλεση & επεξεργασία των Big Data χρησιμοποιώντας HBase που είναι επίσης γνωστό ως No-SQL.
Πλεονεκτήματα της μείωσης χάρτη
Υπάρχουν δύο πλεονεκτήματα σε αυτήν την τεχνολογία.
# 1) Παράλληλη επεξεργασία
Το πρώτο πλεονέκτημα είναι η παράλληλη επεξεργασία. Χρησιμοποιώντας το Map Reduce μπορούμε πάντα να επεξεργαζόμαστε τα δεδομένα παράλληλα.
Σύμφωνα με το παραπάνω διάγραμμα, υπάρχουν πέντε Slave Machines και ορισμένα δεδομένα βρίσκονται σε αυτά τα μηχανήματα. Εδώ, τα δεδομένα υποβάλλονται σε επεξεργασία παράλληλα χρησιμοποιώντας το Hadoop Map Reduce και έτσι η επεξεργασία γίνεται γρήγορη.
java copy 2d array σε άλλο πίνακα
Στην πραγματικότητα αυτό που συμβαίνει εδώ είναι ότι ολόκληρο το κομμάτι των δεδομένων διαιρείται από το Hadoop HDFS σε HDFS Block και ο Map-Reduce επεξεργάζεται αυτά τα κομμάτια δεδομένων και έτσι η επεξεργασία γίνεται γρήγορη.
# 2) Τοποθεσία δεδομένων
Αυτό είναι ένα ευέλικτο πράγμα που δίνεται από το Hadoop MapReduce, δηλαδή μπορούμε να επεξεργαστούμε τα δεδομένα όπου είναι.
Τι σημαίνει?
Στο προηγούμενο σεμινάριο HDFS, καταλάβαμε ότι τα δεδομένα που μετακινήσαμε στο Hadoop Cluster χωρίζονται σε HDFS Blocks και αυτά τα Blocks αποθηκεύονται σε SlaveMachines ή DataNodes. Το Map-Reduce ανιχνεύει την επεξεργασία και τη λογική στους αντίστοιχους Slave Nodes ή DataNodes όπου τα δεδομένα κατοικούν ως HDFS Blocks.
Η επεξεργασία εκτελείται παράλληλα με ένα μικρότερο κομμάτι δεδομένων σε πολλές θέσεις παράλληλα. Αυτό εξοικονομεί πολύ χρόνο, καθώς και εύρος ζώνης δικτύου που απαιτείται για τη μεταφορά Big Data από τη μία τοποθεσία στην άλλη.
Απλώς θυμηθείτε ότι τα δεδομένα που επεξεργαζόμαστε είναι τα Big Data χωρισμένα σε κομμάτια και αν αρχίσουμε να μετακινούμε τα Big Data απευθείας μέσω των εκχωρημένων καναλιών δικτύου σε έναν κεντρικό υπολογιστή και να το επεξεργαστούμε, τότε δεν θα μας δώσει κανένα πλεονέκτημα καθώς πρόκειται να καταναλώσουμε ολόκληρο το εύρος ζώνης στη μεταφορά των δεδομένων σε έναν κεντρικό διακομιστή.
Οφέλη:
Έτσι, χρησιμοποιώντας το Hadoop MapReduce δεν κάνουμε μόνο 'Παράλληλη επεξεργασία' , επεξεργαζόμαστε επίσης τα δεδομένα στους αντίστοιχους Slave Nodes ή DataNodes όπου υπάρχουν τα κομμάτια δεδομένων και ως εκ τούτου είμαστε επίσης 'Εξοικονόμηση μεγάλου εύρους ζώνης δικτύου' που είναι πολύ ευεργετικό.
Τέλος, οι SlaveMachines γίνονται με την επεξεργασία δεδομένων που είναι αποθηκευμένα στο SlaveMachines και στέλνουν πίσω τα αποτελέσματα στο Master Machine, καθώς τα αποτελέσματα δεν είναι τόσο μεγάλα όσο τα μπλοκ που είχαν αποθηκευτεί στο SlaveMachines. Ως εκ τούτου, δεν θα χρησιμοποιεί μεγάλο εύρος ζώνης.
Οι Slave Machines στέλνουν το αποτέλεσμα πίσω στο Master Machine, αυτά τα αποτελέσματα συγκεντρώνονται μαζί και το τελικό αποτέλεσμα αποστέλλεται πίσω στο μηχάνημα πελάτη που υπέβαλε την εργασία.
Εδώ τίθεται ένα ερώτημα - ποιος αποφασίζει ποια δεδομένα πρέπει να υποβληθούν σε επεξεργασία σε ποιο DataNode;
Ο Πελάτης υποβάλλει την εργασία στον Διαχειριστή Πόρων και ο Διαχειριστής Πόρων είναι αυτός που παρέχει την κατεύθυνση για την εκτέλεση της εργασίας στους αντίστοιχους DataNodes όπου βρίσκονται τα δεδομένα, αποφασίζει με βάση το πλησιέστερο DataNode που είναι διαθέσιμο έτσι ώστε πολλά Δίκτυα Το εύρος ζώνης δεν χρησιμοποιείται.
Παραδοσιακό Vs. MapReduce Way
Για να το εξηγήσουμε αυτό, θα πάρουμε μια πραγματική αναλογία του αριθμού αιτήσεων κατόχων ασφαλιστικών εταιρειών, όλοι θα γνωρίζουν τις πολιτικές ασφαλιστικών εταιρειών, καθώς οι περισσότερες από τις μεγάλες ασφαλιστικές εταιρείες έχουν τα καταστήματά τους σε διάφορες πόλεις.
Σε αυτούς τους κλάδους, υπάρχουν «n» αριθμός ατόμων που έχουν υποβάλει αίτηση για Πολιτικές Ασφάλισης Ζωής.
Ας πάρουμε ένα σενάριο όπου έχουμε πέντε υποκαταστήματα ασφαλιστικών εταιρειών όπου οι άνθρωποι έρχονται και υποβάλλουν αίτηση για Πολιτικές Ασφάλισης Ζωής. Τώρα έχουμε επίσης μια έδρα αυτής της ασφαλιστικής εταιρείας που έχει όλες τις πληροφορίες σχετικά με τα καταστήματα που είναι διαθέσιμα και βρίσκονται.
Ωστόσο, όταν οι άνθρωποι έρχονται και υποβάλλουν αίτηση για Πολιτική Ασφάλισης Ζωής στους αντίστοιχους κλάδους Α, Β, Γ, Δ, Ε, οι αιτήσεις συμβολαίου διατηρούνται στα αντίστοιχα καταστήματα και οι πληροφορίες αυτές δεν κοινοποιούνται στην έδρα της ασφαλιστικής εταιρείας.
Παραδοσιακός τρόπος:
Ας δούμε πώς οι άνθρωποι υποβάλλουν αίτηση για την πολιτική παραδοσιακά. Για να επιλυθεί αυτό το πρόβλημα παραδοσιακά, όλες οι αιτήσεις θα μεταφερθούν στην έδρα της ασφαλιστικής εταιρείας και στη συνέχεια θα ξεκινήσει η διαδικασία υποβολής αιτήσεων.
Σε αυτήν την περίπτωση, πρέπει να μεταφέρουμε όλες τις αιτήσεις στην έδρα της ασφαλιστικής εταιρείας, η οποία είναι δαπανηρή υπόθεση, δηλαδή πρέπει να συγκεντρώσουμε όλες τις αιτήσεις από τα καταστήματα της ασφαλιστικής εταιρείας και να τις μεταφέρουμε στην έδρα της ασφαλιστικής εταιρείας.
Με αυτόν τον τρόπο συνεπάγεται το κόστος μαζί με τις τεράστιες προσπάθειες για την πραγματοποίηση αυτής της δραστηριότητας.
Μια άλλη πτυχή αυτού είναι η έδρα της Ασφαλιστικής Εταιρείας που έχει επιβαρυνθεί υπερβολικά, καθώς πρέπει να επεξεργαστεί όλες τις εφαρμογές που εφαρμόστηκαν από τους ανθρώπους για πολιτικές στους αντίστοιχους κλάδους.
Καθώς η Ασφαλιστική Εταιρεία επεξεργάζεται τις εφαρμογές που εφαρμόστηκαν σε όλα τα καταστήματα, θα χρειαστεί πολύς χρόνος. Στο τέλος, αυτή η διαδικασία δεν λειτουργεί πολύ καλά.
πώς να ανοίξετε το αρχείο .apk
MapReduce Way
Ας δούμε πώς το Map-Reduce λύνει αυτό το πρόβλημα.
Το MapReduce ακολουθεί την Τοποθεσία δεδομένων, δηλαδή δεν πρόκειται να φέρει όλες τις αιτήσεις στην έδρα της Ασφαλιστικής Εταιρείας, αντ 'αυτού, θα κάνει την επεξεργασία των αιτήσεων παράλληλα στα ίδια τα καταστήματα.
Μόλις υποβληθούν σε επεξεργασία οι αιτήσεις που εφαρμόστηκαν σε κάθε υποκατάστημα, στέλνουν πίσω τα επεξεργασμένα στοιχεία στην έδρα της ασφαλιστικής εταιρείας.
Τώρα η έδρα της ασφαλιστικής εταιρείας πρέπει απλώς να συγκεντρώσει τον αριθμό των επεξεργασμένων αιτήσεων που στάλθηκαν από τα αντίστοιχα καταστήματα και να διατηρήσει τις λεπτομέρειες στην αντίστοιχη βάση δεδομένων ή στο κέντρο αποθήκευσης.
Με αυτόν τον τρόπο, η επεξεργασία θα είναι πολύ εύκολη και γρήγορη και οι κάτοχοι πολιτικής θα λάβουν τα οφέλη σε χρόνο μηδέν.
Μείωση χάρτη λεπτομερώς
Στο προηγούμενο παράδειγμά μας, είχαμε μια είσοδο (εφαρμογές) που διανεμήθηκε μεταξύ διαφόρων κλάδων και κάθε είσοδος υποβλήθηκε σε επεξεργασία από την αντίστοιχη λειτουργία χαρτών.
Γνωρίζουμε ότι το MapReduce έχει δύο λειτουργίες, δηλαδή τη λειτουργία χάρτη και τη λειτουργία μείωσης.
Το τμήμα επεξεργασίας που έγινε στους αντίστοιχους κλάδους έγινε από τη λειτουργία Map. Έτσι, κάθε είσοδος (εφαρμογή) σε κάθε υποκατάστημα υποβλήθηκε σε επεξεργασία χρησιμοποιώντας τη Λειτουργία Χάρτη, μετά από αυτό οι επεξεργασμένες λεπτομέρειες στάλθηκαν στην Έδρα της Ασφαλιστικής Εταιρείας και το μέρος συγκέντρωσης γίνεται από τη Λειτουργία Μείωσης.
Οι συγκεντρωτικές επεξεργασμένες λεπτομέρειες της εφαρμογής δίνονται ως το αποτέλεσμα.
Αυτό συνέβη στο προηγούμενο μας παράδειγμα. Ολόκληρη η διαδικασία χωρίστηκε στο Map Task και Reduce Task.
Η εργασία χαρτών λαμβάνει μια είσοδο και η έξοδος της εργασίας χαρτών δίνεται στην εργασία μείωσης ως είσοδος και αυτή η εργασία μείωσης δίνει την έξοδο τελικά στον πελάτη.
Για να το κατανοήσουμε καλύτερα, ας δούμε την ανατομία του MapReduce.
Μια εργασία MapReduce λειτουργεί σε ένα ζεύγος τιμών-κλειδιών, οπότε όταν μιλάμε για έναν χάρτη, ο χάρτης λαμβάνει την είσοδο ως κλειδί-τιμή και δίνει την έξοδο ως λίστα κλειδιού-τιμής. Αυτή η λίστα Key-Value περνάει από μια φάση ανακατεύθυνσης και το Input of Key και μια λίστα τιμών πήγε στο Reducer.
Τέλος, ο μειωτής μας δίνει μια λίστα με τα ζεύγη Key-Value.
Παράδειγμα MapReduce - Διαδικασία καταμέτρησης λέξεων
Ας πάρουμε ένα άλλο παράδειγμα, δηλαδή το Word Count Επεξεργασία του MapReduce Way. Αυτό το παράδειγμα είναι το ίδιο με το εισαγωγικό παράδειγμα προγραμματισμού Java, δηλαδή 'Hello World'.
Σύμφωνα με το διάγραμμα, είχαμε μια είσοδο και αυτή η είσοδος χωρίζεται ή χωρίζεται σε διάφορες εισόδους. Έτσι, αυτή η διαδικασία ονομάζεται Διαχωρισμός Εισόδου και ολόκληρη η Εισαγωγή χωρίζεται σε διασπάσεις δεδομένων με βάση τον νέο χαρακτήρα γραμμής.
Η πρώτη γραμμή είναι η πρώτη είσοδος, δηλ. Bigdata Hadoop MapReduce , η δεύτερη γραμμή είναι η δεύτερη είσοδος, δηλαδή MapReduce Hive Bigdata , ομοίως, για την τρίτη είσοδο, είναι Hive Hadoop Hive MapReduce .
Ας προχωρήσουμε στην επόμενη φάση, δηλαδή στη φάση χαρτογράφησης. Τώρα στη φάση χαρτογράφησης, δημιουργούμε μια λίστα ζευγών Key-Value. Έτσι, η είσοδος είναι κλειδί και τιμή, εδώ το κλειδί δεν είναι παρά η μετατόπιση του αριθμού γραμμής. Ο αριθμός γραμμής είναι το κλειδί και ολόκληρη η γραμμή είναι η τιμή.
Έτσι, για τη γραμμή 1 το όφσετ είναι το κλειδί και η τιμή είναι Bigdata Hadoop MapReduce . Στην πραγματική ζωή, ο αριθμός γραμμής ή το όφσετ είναι ένας δεκαεξαδικός αριθμός, ωστόσο, για να το κάνουμε εύκολο, θα το θεωρήσουμε μόνο ως αριθμό 1 ή 2.
Έτσι, η γραμμή 1 θα είναι το κλειδί και ολόκληρη η γραμμή θα είναι η τιμή. Όταν διέρχεται από τη λειτουργία χαρτογράφησης τι θα κάνει η χαρτογράφηση, θα δημιουργήσει τη λίστα ζευγών κλειδιών-τιμών. Για παράδειγμα, Μεγάλα δεδομένα , λοιπόν, τι θα κάνει η συνάρτηση, θα διαβάσει κάθε λέξη της γραμμής και θα σημειώσει μία (1) μετά το κόμμα.
Θα επισημάνει ένα (1) ως τιμή. αρέσει Bigdata, 1 Hadoop, 1 και MapReduce, 1 . Εδώ το ερώτημα είναι γιατί βάζουμε ένα (1) μετά από κάθε λέξη;
Είναι επειδή Μεγάλα δεδομένα είναι ένα Bigdata, 1 . Ομοίως, Hadoop, 1 και MapReduce, 1 έχει από μόνη της έναν αριθμό και γι 'αυτό επισημαίνουμε ένα (1) ως τιμή. Με τον ίδιο τρόπο για τη δεύτερη γραμμή ή ας πούμε τη γραμμή 2 που έχουμε, MapReduce Hive Bigdata .
Έτσι, με τον ίδιο τρόπο, η λειτουργία χαρτογράφησης δημιουργεί και πάλι τη λίστα ζευγών Key-Value και έτσι, σύμφωνα με την καταμέτρηση, η λίστα ζευγών Key-Value θα είναι MapReduce, 1 Κυψέλη, 1 και Bigdata, 1 .
Θα πάρουμε το ίδιο ως αποτέλεσμα της λειτουργίας χαρτογράφησης για τη γραμμή 3, δηλ. Κυψέλη, 2 Hadoop, 1 και MapReduce, 1 .
Ας προχωρήσουμε στη φάση ανακατέματος, σε αυτήν τη φάση για κάθε κλειδί υπάρχει μια λίστα. Η φάση Shuffling θα βρει την εμφάνιση του Key Μεγάλα δεδομένα και θα προσθέσει τις τιμές στη λίστα. Ας δούμε λοιπόν τι συμβαίνει εδώ.
Όπως μπορούμε να δούμε δύο εισερχόμενα βέλη, το πρώτο βέλος προέρχεται από τη λίστα 1 και ένα άλλο βέλος προέρχεται από τη λίστα 2, έτσι το αποτέλεσμα θα είναι Bigdata, (1,1) .
Ομοίως, όταν βλέπουμε τη λέξη Χάδοπ , ξανά για Χάδοπ Μια άλλη λίστα θα ετοιμαστεί για τιμές. Όπως βλέπουμε, δύο εισερχόμενα βέλη δείχνουν το Shuffling που σημαίνει τη λέξη Χάδοπ θα παραληφθούν από τη λίστα 2 και τη λίστα 3 αντίστοιχα, δηλαδή το τελικό αποτέλεσμα μετά το Shuffling Hadoop, (1, 1) .
Με τον ίδιο τρόπο, θα πάρουμε τις υπόλοιπες λέξεις όπως Κυψέλη, (1, 1, 1) και MapReduce, (1, 1, 1) μαζί με τη λίστα τιμών τους ή πείτε τη λίστα των μετρήσεων σύμφωνα με τη διαθεσιμότητα των λέξεων στις αντίστοιχες λίστες.
Ελάτε τώρα στη Φάση Μείωσης, σε αυτήν τη φάση, ξεκινάμε τη συγκέντρωση των Τιμών που υπήρχαν στη λίστα με κάθε Κλειδί. Ετσι, για Μεγάλα δεδομένα, υπήρχαν δύο τιμές στη λίστα, δηλαδή (έντεκα) Έτσι θα γίνει η υποβολή αυτών των τιμών Bigdata, 2 .
Ομοίως, για Χάδοπ η τιμή θα είναι άθροισμα, δηλαδή (έντεκα) η υποβολή θα είναι Hadoop, 2 .
Με τον ίδιο τρόπο για Κυψέλη και ΜΕΙΩΣΗ ΧΑΡΤΗ, η υποβολή για τη μείωση της λειτουργίας θα είναι Κυψέλη, 3 και MapReduce, 3 αντίστοιχα.
Επιτέλους, το τελικό αποτέλεσμα θα σταλεί πίσω στον Πελάτη όπως φαίνεται στο παρακάτω διάγραμμα της «Συνολικής διαδικασίας MapReduce Word Count»
Η συνολική διαδικασία καταμέτρησης λέξεων MapReduce
πώς να αντιστρέψετε έναν πίνακα σε Java
Έτσι λειτουργεί ολόκληρη η διαδικασία Word Count όταν χρησιμοποιείτε το MapReduce Way.
συμπέρασμα
Σε αυτό το σεμινάριο, μάθαμε τα εξής:
- Το Hadoop Map Reduce είναι το 'Μονάδα επεξεργασίας' του Hadoop.
- Για την επεξεργασία των Big Data που αποθηκεύονται από το Hadoop HDFS χρησιμοποιούμε Hadoop Map Reduce.
- Χρησιμοποιείται στην Αναζήτηση & ευρετηρίαση, την ταξινόμηση, τη σύσταση και το Analytics.
- Διαθέτει χαρακτηριστικά όπως Μοντέλο Προγραμματισμού, Παράλληλο Προγραμματισμό και Κατανεμημένο Μοντέλο Μεγάλης Κλίμακας.
- Ο σχεδιασμός του MapReduce είναι: Σύνοψη, Ταξινόμηση Κορυφαίων Εγγραφών, Ταξινόμηση και Analytics όπως Συμμετοχή και Επιλογή.
- Έχει μόνο δύο λειτουργίες δηλ. Λειτουργία χαρτογράφησης και λειτουργία μειωτή.
- Η παράλληλη επεξεργασία και η τοποθεσία δεδομένων είναι τα καλά πλεονεκτήματα του Hadoop MapReduce.
- Η διαδικασία του MapReduce χωρίζεται σε έξι φάσεις, δηλαδή INPUT, SPLITTING, MAPPING, SHUFFLING, MEDUCING και FINAL RESULT.
Αυτό είναι όλο για αυτό το σεμινάριο, στα επερχόμενα σεμινάρια μας θα καλύψουμε:
- Πώς λειτουργεί το MapReduce με το YARN και τα συστατικά του;
- Ροή εργασιών εφαρμογής του YARN.
- Τι είναι το Spark και ποια είναι η διαφορά μεταξύ του Hadoop και του Spark;
=> Δείτε όλα τα εκπαιδευτικά BigData εδώ.
Συνιστώμενη ανάγνωση
- Τι είναι το Hadoop; Εκμάθηση Apache Hadoop για αρχάριους
- Εκμάθηση Python DateTime με παραδείγματα
- Tutorial Data Mart - Τύποι, παραδείγματα & υλοποίηση του Data Mart
- Διαστατικό μοντέλο δεδομένων στην αποθήκη δεδομένων - Εκμάθηση με παραδείγματα
- Εκμάθηση μήκους σειράς Java με παραδείγματα κώδικα
- Big Data Tutorial για αρχάριους | Τι είναι τα Big Data;
- Unix Shell Scripting Tutorial με παραδείγματα
- Selenium Find Element By Text Tutorial με παραδείγματα