Hadoop menggunakan sistem file terdistribusi yang dikenal sebagai HDFS, dan perangkat lunak untuk memproses set data besar yang dikenal sebagai MapReduce. File yang sangat besar dibagi menjadi beberapa bagian, biasanya masing-masing 64 atau 128 MB. Perangkat lunak ini sebagian besar ditulis dalam Java, dengan beberapa kode tingkat rendah ditulis dalam C.
Server Apache, Data besar, Layanan, Persyaratan perangkat lunak