Penyelenggaraan survei yang mengandalkan data primer (informasi individu), terutama survei nasional dengan sampel besar, dalam lima hingga sepuluh tahun mendatang kemungkinan akan sepi peminat. Hal itu bukan hanya karena aspek pembiayaan yang cenderung mahal, proses koleksi dan pengolahan data yang cenderung lama, melainkan juga masalah tuntutan kualitas serta kecukupan data. Seturut dengan perkembangan teknologi digital informatika, kehadiran Big Data menjadi pilihan yang lebih menarik.
Disebut Big Data bukan hanya karena jumlah (volume) data yang masif, sehingga untuk mengoleksi, menampung, dan memprosesnya diperlukan sebuah server dengan kapasitas petabytes, melainkan juga karena kecepatan (velocity) pemutakhiran data secara real-time serta tingkat kerumitan (complexity) yang tinggi, baik dari aspek sumber, jenis serta kategori data.
Artinya, Big Data menyediakan gambaran realitas dalam horison yang lebih luas dan kompleks, yang sulit dijangkau melalui survei konvensional.
Data Dinamis
Selama ini para peneliti, pengamat atau akademisi, lazim mengandalkan data statis(tik) yang bersumber dari data primer riset lapangan sebagaimana tersedia di Badan Pusat Statistik (BPS), lembaga riset, universitas, UNDP, World Bank, dan sebagainya.
Namun, Big Data tidak hanya menampung data statis, melainkan data dinamis yang bersumber dari portal online, web, dan social media (linimasa) seperti Twitter, Facebook, Instagram, dan semacamnya.
Data social media disebut data dinamis dikarenakan perubahannya begitu cepat, tidak hanya dalam hitungan hari, melainkan menit bahkan detik (real time).
Dengan pemutakhiran yang begitu cepat, data dinamis sangat berguna untuk kepentingan mendesak dan jangka pendek.
Melalui data dinamis, kita bisa secara cepat mengetahui dan merespons kejadian kritis seperti gagal panen, kebakaran lahan, penyakit menular,atau kekerasan terhadap anak. Kita bahkan dengan mudah bisa mengetahui gejala radikalisme, juga memprediksi preferensi politik .
Mesin Big Data bukan hanya membantu kita mengetahui secara cepat jumlah kejadian dalam periode tertentu, melainkan juga persebaran wilayah, kategori penyebabnya, hubungan kelompok dan antar aktor yang terlibat. Data semacam ini tentu tidak tersedia di BPS atau lembaga riset yang selama ini masih mengandalkan data statis(tik) di mana interval pemutakhiran data lebih lambat.
Membangun Kebenaran
Big Data merupakan teknik baru untuk menghadirkan kebenaran tertentu di tengah apa yang pernah disebut Jean Francoa Lyotard sebagai proliferasi teknologi informasi yang berperan vital mengonstruksi pengetahuan masyarakat.
Big Data mensyaratkan ketersediaan teknologi informatika nan canggih guna mengolah jutaan bahkan miliaran data, baik yang telah terstruktur maupun belum terstruktur, yang terfragmentasi maupun yang utuh.
Volume data besar kurang memadai untuk diolah dan dianalisis dengan teknik komputasi analitik konvensional. Namun, dengan mesin analitik Big Data, data yang awalnya tidak terstruktur sehingga belum terbaca sebagai kebenaran, mulai bisa terbaca pola, relasi dan koherensinya, sehingga dapat diterima kebenarannya dalam menggambarkan realitas.
Teknik baru menghadirkan kebenaran dan pengetahuan semestinya memukau hasrat para peneliti dan akademisi di negeri ini. Namun, tampaknya masih segelintir yang tergugah dan menaruh minat lebih mendalam pada Big Data.
Bukti terhangat minimnya minat serta peran peneliti dan akademisi (baca: universitas)—terutama bidang sosial humaniora—pada Big Data bisa dilihat pada Konferensi Internasional Big Data yang bertajuk Data for Life 2016, pertengahan Agustus lalu. Tidak satu pun pembicara dari kalangan peneliti dan akademisi, melainkan dari kalangan bisnis, industri dan praktisi media
Minimnya perhatian peneliti dan akademisi untuk mengeksplorasi Big Data di satu sisi, dan antusiasme yang tinggi kalangan bisnis dan industri di sisi lain, memperlihatkan Big Data hanya menyediakan kebenaran untuk kepentingan bisnis, bukan kebenaran untuk mengeksplorasi perkembangan sains. Sedangkan kebenaran fundamental bagi kepentingan bisnis hanya satu: profit. Big Data is Big Business!
Chris Anderson (2008), mantan Chief Editor Wired Magazine, seolah menohok, mencibir kalangan akademisi dengan mengatakan Big Data adalah pendekatan di era baru produksi pengetahuan yang ditandai “the end of theory”. Di hadapan Big Data dengan ciri cross-platform yang fleksibel, metode ilmiah terasa usang. Kita tidak perlu repot membangun hipotesis atas dasar teori yang solid. Algoritma Big Data telah memudahkan analisis aneka data yang rumit.
Padahal, mengonstruksi kebenaran pengetahuan tertentu merupakan tugas luhur para ilmuwan, akademisi, dan peneliti. Kalangan inilah yang seyogianya merawat dan memajukan ilmu pengetahuan. Tanggung jawab atas epistemologi di balik Big Data semestinya ada di tangan mereka.
Bagi kalangan ilmuwan, peneliti, dan akademisi, Big Data membuka pintu lebar untuk memperkaya variasi data, sehingga memperkuat serta mempertajam analisis, yang selanjutnya membuka peluang bagi riset interdisipliner yang lebih elaboratif.
Di sisi lain, Big Data yang menyerap data dinamis dari sumber terbuka (open source) seperti situs berita, media sosial, data gambar yang tersedia secara fragmentatif masih menyisakan lubang besar dalam beberapa kaidah, misalnya keandalan dan validitas. Ini menjadi tantangan serius bagi peneliti dan akademisi untuk mempertanyakan, menguji, dan merekonstruksinya sehingga menjadi data yang andal dan valid.
Menstrukturkan data fragmentatif dengan volume besar menuntut adanya rigiditas prosedur ilmiah sehingga menjadi model data yang bisa dipertanggungjawabkan.
Hanya dengan cara mengeksplorasi dan sekaligus memproblematisasi Big Data para peneliti dan akademisi menimba manfaat lebih besar, sekaligus menanggapi pandangan semacam Anderson. Kecuali para peneliti dan akademisi mengamininya.
Tulisan ini pernah dimuat dalam bahasa Inggris dengan versi yang berbeda di The Jakarta Post