Apa itu Apache Hadoop?

Apache Hadoop adalah nama untuk serangkaian algoritma data besar, penyimpanan terdistribusi, dan perangkat lunak pemrosesan terdistribusi yang dibuat oleh Apache Software Foundation. Ini dirancang untuk mendukung aplikasi layanan data volume tinggi; secara otomatis menangani kegagalan perangkat keras tanpa kehilangan layanan.

Hadoop menggunakan sistem file terdistribusi yang dikenal sebagai HDFS, dan perangkat lunak untuk memproses set data besar yang dikenal sebagai MapReduce. File yang sangat besar dibagi menjadi beberapa bagian, biasanya masing-masing 64 atau 128 MB. Perangkat lunak ini sebagian besar ditulis dalam Java, dengan beberapa kode tingkat rendah ditulis dalam C.

Server Apache, Data besar, Layanan, Persyaratan perangkat lunak