Kecanduan Deepfake

Kecanduan Deepfake: Pornografi, Politisi, Seni, dan Problem Kebenaran

Keberadaan kecerdasan buatan (Artificial Intelligence atau AI) saat ini menjadi topik yang begitu ramai diperbincangkan, dengan cakupan yang melibatkan berbagai aspek. Dari pertanyaan seputar apakah AI dapat menggantikan peran manusia, hingga diskusi seputar dampak teks atau gambar yang dihasilkan oleh AI terhadap pekerjaan manusia, termasuk potensi untuk mengurangi upah yang dibayarkan oleh para pemberi kerja. Selain itu, ada upaya yang dilakukan untuk mengatasi potensi ancaman di masa depan, seperti yang dijalankan oleh tokoh-tokoh seperti Elon Musk dan Sam Altman.

Sebagai contoh yang dekat dengan kita, Pemerintah DKI Jakarta menerapkan teknologi AI untuk mengatasi masalah kemacetan. Namun, perlu dicatat bahwa implementasi ini tidak selalu dianggap sebagai solusi yang pasti dan efektif. Ada pandangan bahwa langkah ini mungkin lebih merupakan upaya untuk menciptakan citra “sedang bekerja” daripada solusi konkret terhadap masalah kemacetan.

Pembicaraan mengenai kecerdasan buatan (AI) tidak seharusnya hanya berkutat pada ketakutan "kiamat manusia" atau pertanyaan apakah perkembangan AI perlu dibatasi. Sebaliknya, fokusnya seharusnya terarah pada bagaimana kehadiran AI dapat memberikan manfaat ekonomis bagi berbagai sektor pekerjaan, sambil mengurangi biaya produksi, terutama di sektor pemerintahan yang semakin mengintegrasikan AI dalam adaptasinya. Meskipun demikian, kita perlu tetap waspada dan tidak hanya melihat teknologi AI sebagai trik belaka tanpa menangani masalah inti, seperti kemacetan yang tetap menjadi masalah serius.

Salah satu isu yang perlu diperhatikan terkait dengan AI-generated adalah teknologi deepfakes atau faceswap. Hal ini melibatkan kecerdasan buatan dalam memanipulasi suara dan gambar, dengan potensi dampak serius terhadap keamanan dan integritas informasi. Privasi dan kepercayaan publik menjadi tergugat, dan hal ini perlu menjadi fokus serius dalam menghadapi perkembangan AI.

Deepfakes dan Problem Kebenaran

Ketika Ian Goodfellow menggunakan teknik machine learning yang disebut “generative adversarial network” (GANs). Cara kerja waktu itu GANs adalah dengan memindai ribuan foto Barack Obama sebelum membuat foto baru yang mendekati dari ribuan foto sebelumnya tanpa perlu melakukan penyalinan salah satu dari ribuan foto. Selain itu GANs juga dapat menghasilkan suara baru, teks baru.  

Awalnya penggunaan machine learning ini hanya digunakan di komunitas penelitian sebelum tahun 2017, salah satu pengguna Reddit memposting deepfakes pornografi. User tersebut menggunakan GANs dengan TensorFlow, machine learning software gratis untuk membuat konten pornografi. Kemudian kita bergeser ke tahun 2020 ketika deepfakes seperti animasi yang ada dalam film Hollywood versi low budget. Saat itulah deepfakes dikenal sebagai alat yang sering disalahgunakan. 

Hal yang perlu dipertimbangkan terkait deepfakes ini adalah kita bisa lebih fokus ke persoalan bahwa deepfakes mampu untuk memanipulasi penonton atas hasil video dan ironisnya kita cenderung memercayainya. Seperti beberapa waktu lalu mungkin anda pernah kedapati konten yang memperlihatkan bagaimana Jokowi menyanyikan Asmaralibrasi, Yellow, atau Ariana Grande menyanyikan Rungkad (Happy Asmara), hingga konten video Bayemsore yang didaurulang dan diedit dengan wajah pesepakbola Ronaldo dan Messi. 

Ketika pertama saya mendapat konten-konten tersebut perasaan yang muncul awalnya adalah konten video di atas mampu membuat saya terhibur dan sekilas berkata “oh jadi gini kemungkinannya hasil dari bantuan AI untuk menghasilkan suatu kemungkinan lain dan ya hasilnya ternyata mirip seperti aslinya”. Dari sini kita bisa membayangkan bahwa seorang Ariana Grande bisa menyanyikan lagu dangdut atau Jokowi menyanyikan lagu Yellow berkat bantuan machine learning.

Di sisi lain, konten yang dihasilkan deepfakes bukan hanya untuk lucu-lucuan, beberapa orang sejak awal kemunculannya telah memanfaatkan deepfakes sebagai alat seperti untuk hal-hal yang merugikan seperti pornografi terhadap orang-orang terkenal maupun tak dikenal, menghasilkan karya seni palsu, melakukan penipuan lewat videocall. Coba saja anda masukan kata pencarian 'deepfakes akun' di kolom pencarian Twitter, anda akan mendapati bahasan mengenai akun-akun deepfakes yang menyasar foto-foto profil perempuan dengan menggunakan AI untuk mereka buatkan porn-fake nya dan yang paling aneh sekaligus menjengkelkan adalah adanya transaksi jual beli antara pemilik akun-pembeli, pembeli tak peduli apakah subjek yang dirugikan itu telah setuju atau apakah hasil dari bantuan deepfakes tersebut mengandung nilai kebenaran bahwa misalnya subjek A yang dalam video B itu memanglah A.

Dengan bantuan teknik machine learning, bukan hanya aplikasi edit foto, deepfakes mampu menghasilkan suatu konten baik itu video, suara atau teks yang bisa mengelabui pengetahuan kepada kita. Hal ini jugalah yang menjadi perhatian bagi filsuf seperti Deborah Johnson, Luciano Floridi, dan Regina Rini yang mengingatkan kepada kita bahwa saat ini dengan semakin canggihnya teknologi, kita sedang menuju apa yang disebut sebagai “infopocalypse” bahwa kita tak lagi bisa membedakan mana yang benar dan palsu dari suatu konten video atau suara yang bertebaran di dunia digital.

Masih Adakah Pengetahuan Setelah Deepfakes? 

Ketika kita membicarakan apakah suatu video, suara, atau foto yang bertebaran di media sosial memiliki muatan pengetahuan yang benar dan bukan hanya keyakinan yang benar terjustifikasi, maka kita tak bisa melepaskan dari pembahasan epistemologis tentang bagaimana kita mendapatkan pengetahuan atas dunia. Sebab saat ini melalui video atau gambar kita seringkali mendapat pengetahuan baru atas dunia atau fenomena dan pada saat yang bersamaan kita tak melakukan verifikasi atas suatu informasi. 

Semisal ambil contoh di atas ketika melihat dan mendengar konten deepfakes audio dari Ariana Grande atau Jokowi bernyanyi saja telah cukup bagi kita untuk percaya bahwa dua konten tersebut benar. Padahal Floridi menegaskan bahwa deepfakes tak bisa dijadikan penjamin kebenaran karena cenderung mengaburkan batas antara kenyataan dan fiksi, serta membahayakan kita secara epistemik. Selain itu cara kerja deepfakes berbeda dengan konten yang dihasilkan oleh photoshop atau aplikasi edit foto lainnya. Raymond Harris menyebut bahwa perbedaannya adalah kecepatan, kualitas, proses dan bagaimana kemampuan dari AI-generated ini bisa seolah-olah merevisi-dirinya sendiri, meningkatkan kualitas yang lebih baik dari photoshop untuk hasil yang semakin mendekati atau melampaui yang asli.

Don Fallis dalam tulisannya The Epistemic Threat of Deepfakes menyebut masalah utama epistemik dari deepfakes ialah seringkali mengarahkan orang meyakini sesuatu yang keliru (false beliefs). Hal ini berarti seringkali orang-orang menganggap konten deepfakes itu beneran terjadi di kenyataan. Salah satu contoh lainnya adalah ketika konten deepfakes dari Tom Cruise viral karena suara, wajah begitu mirip dengan Tom Cruise asli. Fallis dalam tulisannya menegaskan bahwa kejadian ini merupakan konsekuensi dari deepfakes yang bisa membuat orang untuk memercayai yang salah dan tak pernah kejadian di kenyataan. Implikasi lainnya selain kita tak bisa memercayai apa yang kita lihat, deepfakes memungkinkan orang untuk tak percaya atas video yang dihasilkan oleh media yang melakukan prinsip-prinsip jurnalisme untuk bisa mereka percayai kebenarannya dan hampir semua orang bisa menggunakan teknologi deepfakes yang tersedia untuk membuat video yang sebelumnya belum ada menjadi ada dengan bantuan machine learning seperti melalui aplikasi FakeApp atau Zao.

Dari sini mungkin kita akan sedikit bertanya “kenapa hanya deepfakes yang dibesar-besarkan dan seolah hanya satu-satunya yang bisa membahayakan secara epistemik atas dunia, bukankah foto, video biasa dan suara rekamanan bisa saja menipu dan membahayakan pengetahuan kita?”

Mari kita menegok argumen filsuf Regina Rini (2019) dalam papernya Deepfakes and the Epistemic Backstop. Rini menjelaskan mengapa deepfakes secara epistemik adalah ancaman. Ia membandingkan mengapa kita mempercayai fotografi, video dan rekaman suara selama dua abad terakhir adalah penekanannya terhadap adanya testimoni atau kesaksian. Menurutnya setidaknya ada beberapa alasan mengapa deepfakes berbahaya.

Pertama, ada perbedaan psikologis antara fotografi dan rekaman suara-video. Rekaman suara dan video selalu melibatkan naratif dan inilah alasan kenapa orang dengan senang hati menghabiskan uangnya untuk menonton film di bioskop atau streaming video di smartphone, sementara orang jarang untuk melihat foto atau gambar dan menganggap bahwa rekaman video lebih nyata daripada foto.

Kedua, deepfakes, tidak seperti Photoshop, merupakan machine learning yang mampu untuk merespon secara efisien atas “tantangan epistemik” secara cepat dan sedikit biaya yang diperlukan jika dibandingkan dengan Hollywood ketika memproduksi video-video yang tampak tak nyata.

Ketiga, nantinya jumlah yang dihasilkan hampir sama dengan jumlah berita atau teks palsu. Artinya ialah video-video palsu itu akan menjadi “spam” seperti halnya kita sering mendapatkan pesan-pesan tak jelas di nomor handphone kita. 

Argumen Rini di atas tidak jauh berbeda dengan Don Fallis ketika bahaya epistemik atas deepfakes atas pengetahuan. Selanjutnya Fallis mengajukan beberapa strategi yang bisa dilakukan agar kita epistemik lebih aman. Kita tahu bahwa deepfakes memungkinkan suatu kondisi yang tak mungkin kejadian menjadi nyata (misal ketika Jokowi menjadi penyanyi lagu Yellow) dan ini menandakan informasi yang dibawanya dangkal. 

Lantas strategi apa yang bisa dilakukan? Menurut Fallis beberapa cara seperti untuk membatasi penggunaan deepfakes dan saksi informal ketika banyak yang menggunakan deepfakes. Tujuannya adalah agar konten yang dihasilkan oleh deepfakes sedikit dan informasi yang akan didapat lebih bermanfaat. Tapi lagi-lagi kita akan bertanya, apa mungkin kita membuat regulasi semacam itu atau berapa banyak di kalangan pembuat kebijakan yang mau mendengar dan belajar dari anak-anak muda yang lebih tau soal teknologi deepfakes ini? Entahlah~