DIALEKSIS.COM | Opini - Kecanggihan AI (Artificial Intelligence/kecerdasan buatan) pada beberapa tahun ini memungkinkan berbagai aplikasi dan sistem bekerja secara otomatis dan cepat. Dari fitur autocomplete seperti Google hingga ChatGPT dan DALL - E, teknologi ini dapat menjawab kebutuhan efisiensi masyarakat global, tak terkecuali di Indonesia.
AI kini banyak digunakan dalam jurnalistik untuk membuat berita otomatis, memverifikasi fakta, menerjemahkan, hingga mengedit suara dan gambar. Sistem pengenalan wajah (face recognition) dan suara ke tulisan (voice-to-text) juga menjadi fitur dasar di banyak media sosial dan keamanan.
Namun, dibalik itu semua, tersembunyi ancaman etis yang mengancam keamanan. Seperti AI generatif, seseorang dapat menciptakan video atau suara palsu yang mirip seperti aslinya atau yang kita kenal dengan istilah deepfake. Sepanjang tahun 2022 - 2023 saja, terjadi peningkatan 1.550% untuk kasus deepfake di Indonesia, didominasi kasus penipuan dan cyber-crime.
Deepfake ini menghilangkan batas antara kenyataan dan manipulasi, membuka peluang besar bagi penyebaran disinformasi (hoaks), terlebih bagi Generasi Boomer, Gen Alpha dan Gen X yang cenderung masih banyak yang gagap teknologi (Gaptek) sehingga mudah mempercayai tanpa saring terlebih dahulu.
Selain itu, bentuk nyata dari penyalahgunaan AI berupa pembuatan konten hoaks. Kita dengan menggunakan AI saja bisa diciptakan narasi, gambar, hingga video yang terlihat menyerupai asli. Misalnya, video seorang pejabat yang terlihat membuat pernyataan kontroversial padahal tidak pernah betul-betul diucapkannya. Suara dan mimik mulutnya dibuat menyerupai aslinya dengan lip-syncing dan voice cloning.
Contoh kasus menonjol terjadi saat video palsu yang menampilkan tokoh publik menyatakan dukungan pada ideologi tertentu tersebar luas di media sosial. Setelah ditelusuri, video itu ternyata dibuat menggunakan AI seperti Synthesia, yang bisa menggabungkan gambar dan suara secara manipulatif. Bagi masyarakat awam seperti gen-gen yang saya sebutkan tadi, cenderung langsung percaya, bahkan AI digunakan sebagai alat untuk membentuk persepsi, memprovokasi, bahkan menyesatkan publik.
Saya mengutip dalam jurnal "Filsafat Artificial Intelligence" oleh Babys et al. (2024), kemampuan AI dalam memproduksi informasi bukanlah hasil dari kesadaran etis, melainkan dari hasil komputasi atas data yang tersedia. Artinya, kalau AI digunakan oleh orang jahat, maka AI bisa beroperasi tanpa memikirkan Etika Digital.
Etika digital adalah sebuah prinsip moral yang mengatur interaksi manusia dalam ruang digital. Dalam kasus AI, etika ini diuji lebih dari sebelum AI. Telkom University menyatakan bahwa etika AI diperlukan agar perkembangan teknologi tidak lepas dari kendali moral manusia. Etika digital mencakup prinsip transparansi, keadilan, akuntabilitas, dan perlindungan privasi.
Sayangnya, AI selalu dikembangkan tanpa mempertimbangkan prinsip-prinsip ini secara serius. Banyak sekali sistem AI yang peroleh informasi dari data-data yang berisi bias, stereotip, bahkan hoaks. Ketika AI kita gunakan untuk menyebar informasi yang salah, maka akan memperkuat polarisasi sosial. Hoaks pemilu, teori konspirasi, dan disinformasi tentang vaksin seperti vaksin Covid-19 merupakan contoh nyata dampak perusakan AI terhadap masyarakat.
AI juga tidak cuma membangun persepsi, tetapi juga sangat bisa membuka jalan baru bagi kejahatan siber (cyber crime). Di dalam dunia perbankan dan keuangan digital, voice cloning sering dipakai untuk menipu sistem keamanan berbasis biometrik suara. Terjadi kasus pada tahun 2023, sebuah bank di Hong Kong mengalami kerugian besar akibat penipuan telepon dengan menggunakan suara palsu CEO-nya.
AI juga banyak sekali digunakan untuk rekayasa sosial (social engineering). Penjahat siber sering menggunakannya untuk meniru suara anak korban, memalsukan pesan darurat, dan melakukan pemerasan memggunakan gambar-gambarpalsu. Semua ini dilakukan semuanya berkat kecepatan dan akurasi yang sangat tinggi sehingga korban susah membedakan yang mana asli dan bukan.
AI kini sangat berkembang dengan cepat, tapi regulasi dan kesadaran etika justru berkembang tidak seperti kemajuannya. Yang seperti inilah yang membuat celah hukum dan moral, dimana manusia tidak bertanggungjawab bisa mengeksploitasi AI demi keuntungan pribadi atau kelompok bertopi hitam (peretas atau cracker yang melakukan aktivitas ilegal dan berbahaya).
Makalah dari Rosa Anggelina Babys et al. menyebutkan bahwa AI adalah teknologi aksiologis yang netral secara nilai -- yang menentukan apakah ia bermanfaat atau merusak adalah niat dan tujuan manusia penggunanya. Oleh karena itu, pengembangan AI harus berakar pada nilai-nilai kemanusiaan dan keadilan.
Beberapa organisasi internasional sudah mengambil langkah konkret. Dari yang saya baca di jurnal Paris Charter on AI and Journalism, ditegaskan bahwa penggunaan AI dalam media harus menjamin hak publik atas informasi berkualitas dan etis. Panduan ini juga mengatur privasi, kekayaan intelektual, dan perlindungan demokrasi.
Di negara kita Indonesia, regulasi khusus terkait AI masih kosong. Walau UU ITE dan UU Perlindungan Data Pribadi sudah disahkan, tetapi instrumen hukum yang spesifik soal AI deepfake, voice cloning, atau konten rekayasa belum dibahas secara gamblang. Oleh karena nyan, penguatan hukum digital sangat harus bisa didesak untuk menjaga ruang siber tetap aman dan etis, mengingat kita sering mendengar kasus pembobolan data Privasi milik Warga Negara Indonesia oleh hacker.
Kita harus sadar digital. Menurut saya, Literasi digital dan AI harus menjadi kurikulum wajib, baik di sekolah maupun kampus. Karena tanpa pemahaman tentang itu akan terus menjadi bahaya dan masyarakat rentan menjadi korban manipulasi informasi. Pemerintah, melalui lembaga seperti Kemenkominfo, seharusnya gencar melakukan gebrakan untuk keamanan digital, jangan terlalu asik blokir-blokir situs judi online dan pornografi, tetapi jaga keamanan digital data privasi masyarakat dari cyber - crime.
Big-Company digital seperti Meta, Google, dan OpenAI juga bertanggung jawab secara moral dan harus memastikan bahwa hasil produk AI mereka tidak digunakan untuk menyesatkan, menipu, atau merusak sosial.
Kita juga harus memilih, Apakah AI ini akan kita bawa kepada kemajuan etika digital atau terus menjadi sumber kejahatan? semua tergantung pada cara kita dan mereka kelola. Kita juga butuh regulasi yang tegas, pengawasan digital yang ketat, serta masyarakat kita yang harus sadar dan cerdas memilah instrumen digital.
Jika kita larut dan bodoamat, kita tidak cuma menyaksikan lahirnya dunia yang canggih, tetapi juga dunia yang full hoaks. [**]
Penulis: Muhammad Fawazul Alwi [Ketua PD-Gerakan Pemuda Al-Washliyah Aceh Barat dan Mahasiswa Universitas Teuku Umar]