Di era kecerdasan buatan, kita berinteraksi dengan ChatGPT dan chatbot lain setiap hari. Kita membanjiri mereka dengan pertanyaan dan, yang lebih penting, dengan segudang informasi pribadi kita.
Ini memunculkan pertanyaan terbesar di zaman kita: Apa yang sebenarnya terjadi pada data yang kita berikan? Apakah raksasa AI menggunakan informasi sensitif ini—mulai dari curhatan di pesan Facebook lama hingga email pribadi Anda—untuk mengasah dan melatih model mereka lebih lanjut? Segala detail kehidupan kita seolah terhampar di internet. Pertanyaannya menggantung: Apakah semua itu diam-diam dimanfaatkan juga?
Mari kita selami inti masalahnya. Inilah pertanyaan krusial pertama: Apakah Google, melalui AI-nya, membaca email Anda atau menggunakan data Gmail Anda untuk pelatihan model? Jawabannya mungkin mengecewakan: Ya dan Tidak.
Jawaban ambigu itu membuat frustrasi, tetapi ada alasannya. Model AI Google, Gemini, memang terintegrasi dengan produk-produk lain seperti Gmail, Google Drive, dan Google Chat. Namun, ia tidak akan mengambil data dari sana, kecuali dan hingga Anda sendiri yang memberikan izin eksplisit sebagai pengguna.
Lalu, dari mana Gemini mendapatkan data untuk menjadi ‘pintar’? Sumbernya beragam: mulai dari pencarian yang Anda lakukan di aplikasi, foto atau video yang Anda unggah, hingga interaksi melalui pesan dan aplikasi panggilan Anda—asalkan Anda telah memberikan izin. Inilah alasan mengapa kita bisa mengatakan “tidak” terhadap penggunaan data.
Namun, ada sisi “ya” yang perlu diwaspadai, karena Google itu licik. Ambil contoh Gmail: Jika Anda mengaktifkan fitur cerdas seperti saran penulisan email atau ringkasan kalender, secara otomatis Google mendapatkan akses ke data Anda. Mungkin Anda berpikir, “Saya tidak pernah tahu hal itu!” Tapi, inilah bagian yang membuatnya semakin tidak etis:
Dulu, jika Anda ingin data Anda dipakai Gemini, Anda harus aktif menekan tombol persetujuan (opt-in). Anda sadar sedang memberikan izin. Kini? Keadaannya terbalik. Jika Anda tidak ingin Gemini menyentuh data Anda, Anda harus bersusah payah masuk ke pengaturan dan mematikannya secara manual. Google telah diam-diam memindahkan tanggung jawab perlindungan data dari perusahaan ke pundak Anda, para konsumen. Fakta ini baru terkuak berkat gugatan hukum di California.
Setelah Google, mari beralih ke Meta, pemilik model AI bernama Llama. Mungkin namanya kurang familiar, tetapi Meta sedang menggeber program AI-nya. Ini menimbulkan pertanyaan yang sama: Apakah mereka menggunakan data Anda? Mengingat Meta adalah pemilik raksasa media sosial—Facebook, Instagram, dan WhatsApp—pertanyaan ini sangat penting. Bayangkan, Anda berbicara dengan Llama tentang hobi baru, misalnya menyelam. Seketika, aplikasi Meta Anda mungkin mulai membanjiri Anda dengan iklan peralatan menyelam atau video reel tentang spot diving terbaik.
Namun, apakah mereka juga berbagi isi pesan pribadi Anda? Kabar baiknya: Pesan pribadi Anda (DM) di Meta tidak dibagi. Jadi, percakapan rahasia Anda relatif aman. Namun, kabar buruknya adalah: Semua yang lain sedang digunakan. Meta AI dilatih oleh jejak publik Anda: postingan publik Instagram Anda, komentar Facebook Anda, bahkan video reel yang Anda buat bertahun-tahun lalu dengan lagu yang tidak jelas!
Jika seseorang memposting foto Anda secara publik—meskipun Anda sendiri tidak punya akun Meta—sistem mereka bisa belajar dari gambar itu. Ironisnya, Anda bahkan tidak diberi tombol untuk menolak (opt-out) penggunaan data publik ini. Kesimpulannya: DM Anda mungkin aman untuk saat ini, tetapi persona publik Anda tidak.
Di sinilah letak bahayanya yang paling besar: Ketika Anda mengunggah sesuatu ke dalam chatbot—entah itu foto pribadi, catatan suara, atau detail sensitif dalam perintah—data itu dapat disimpan, dianalisis, dan digunakan untuk pelatihan, kecuali Anda menonaktifkannya.
Masalahnya, banyak pengguna tidak tahu bahwa mereka punya opsi untuk menonaktifkan, atau tidak tahu caranya. Bahkan jika Anda berhati-hati, data tentang diri Anda tetap bisa sampai ke model AI ini dari berbagai sumber. Jadi, rasanya seperti tidak ada jalan keluar.
Untuk memitigasi risiko, periksa kembali izin yang Anda berikan kepada semua aplikasi ini. Jangan anggap ini hanya birokrasi biasa; telusuri dengan cermat dan ketahui apa yang sedang Anda bagikan.
CEO OpenAI, Sam Altman, sendiri memperingatkan: “Chatbot bukanlah terapis.” Dia menyarankan untuk tidak mengunggah apa pun yang tidak ingin Anda simpan oleh orang asing atau di server mana pun. Mengapa? Data Anda dapat disimpan dan digunakan untuk perbaikan model; data Anda bisa bocor suatu hari nanti; dan data Anda berisiko dikeruk atau disalahartikan.
Perusahaan AI memang sedang membangun masa depan, tetapi mereka melakukannya dengan menggunakan realitas masa kini yang penuh kerumitan. Ingatlah satu hukum universal di dunia saat ini; jika Anda tidak membayar untuk suatu produk, kemungkinan besar, andalah produknya. Mereka menjanjikan keagungan, tetapi yang mereka berikan adalah ketakutan. Mereka membentuk bangsa, tetapi mereka melukai generasi. Dari pembersihan brutal hingga mesin propaganda, dari kekuasaan yang dicuri hingga kejatuhan yang penuh kekerasan dari takhta.
