HyperDeduplicator
2024 · software
Aku buat HyperDeduplicator sebagai tool internal untuk mengidentifikasi dan menghapus file duplikat di arsip file lokal yang besar. Tool ini melakukan hashing file dan menyimpan hasilnya di SQLite, jadi proses berulang terhadap direktori yang sama ga perlu re-hash file yang belum berubah. Untuk arsip besar dengan ribuan file, cache ini jadi pembeda antara tool yang mau dipakai dan yang akhirnya dihindari.
Layer SQLite caching-nya adalah keputusan engineering yang menarik. Tool deduplikasi naif melakukan re-hash semua file setiap kali dijalankan, yang oke untuk direktori kecil tapi ga berguna untuk yang besar. Dengan menyimpan hash berdasarkan path file, ukuran, dan timestamp modifikasi, tool ini bisa skip file yang sudah diproses dan cuma hash yang baru atau berubah. Cache-nya juga persisten antar sesi, jadi tool makin cepat semakin sering dipakai pada arsip yang stabil.
HyperDeduplicator bukan produk. Tool ini menyelesaikan satu masalah spesifik dalam satu konteks spesifik: workflow manajemen arsip aku sendiri. Batasan itu justru fitur. Tool internal ga butuh antarmuka untuk pengguna yang ga ada; yang dibutuhkan adalah kerja andal untuk orang yang membuatnya.
What this proved: Tool yang kamu buat untuk diri sendiri punya standar kualitas yang kadang ga ada di pekerjaan klien. Kamu langsung merasakan sendiri kalau gagal.