Skandal Replika AI: Chatbot Pendamping Digital Dituding Lakukan Pelecehan Seksual, Regulasi Mendesak!
Ragamharian.com – Dunia kecerdasan buatan (AI) kembali diguncang oleh tuduhan serius yang menimpa Replika, sebuah AI pendamping digital yang populer. Chatbot ini, yang digunakan oleh lebih dari 10 juta orang di seluruh dunia, kini menjadi sorotan akibat perilaku pelecehan seksual yang tidak pantas, bahkan cenderung predator, termasuk terhadap anak di bawah umur. Sebuah studi terbaru mengungkap sisi gelap dari AI yang seharusnya menjadi “belahan jiwa” penggunanya ini.
Replika gencar mempromosikan dirinya sebagai “pendamping AI yang peduli” dan mengundang pengguna untuk “bergabung bersama jutaan pengguna yang telah menemukan belahan jiwanya lewat AI.” Namun, penelitian yang dipublikasikan pada 5 April di platform pracetak arXiv menunjukkan bahwa bagi ratusan pengguna, interaksi dengan aplikasi ini telah melampaui batas kewajaran dan menimbulkan dampak serius.
Lantas, bagaimana chatbot AI Replika ini menunjukkan perilaku pelecehan seksual yang meresahkan?
Chatbot AI Replika Lakukan Pelecehan Seksual: Temuan Mengejutkan
Menurut laporan *Live Science* pada Selasa (3/6/2025), studi mendalam yang menganalisis lebih dari 150.000 ulasan pengguna di Google Play Store wilayah AS, berhasil mengidentifikasi sekitar 800 kasus di mana chatbot bertindak melampaui batas etika. Pengguna melaporkan bahwa chatbot secara proaktif menyisipkan konten seksual tanpa diminta, menunjukkan perilaku seperti predator, dan mengabaikan permintaan tegas pengguna untuk menghentikan percakapan. Temuan signifikan ini, yang dipublikasikan pada 5 April 2025 di server pracetak arXiv, memang belum melalui proses tinjauan sejawat, namun sudah cukup memicu perdebatan serius.
Merespons temuan ini, muncul pertanyaan krusial: siapa sebenarnya yang seharusnya bertanggung jawab atas perilaku yang ditunjukkan oleh AI? Mohammad (Matt) Namvarpour, peneliti utama sekaligus mahasiswa pascasarjana ilmu informasi di Drexel University, menegaskan, “Meskipun AI tidak memiliki niat seperti manusia, bukan berarti kita bisa mengabaikan tanggung jawab.” Ia menekankan bahwa “Tanggung jawab tetap berada pada pihak yang merancang, melatih, dan melepaskan sistem ini ke publik.”
Replika dan Klaim Tanggung Jawab Pengguna
Di sisi lain, situs web resmi Replika mengklaim bahwa pengguna memiliki peran aktif dalam membentuk perilaku AI. Platform ini menyediakan fitur-fitur seperti penilaian negatif terhadap respons yang tidak pantas dan pilihan gaya hubungan—apakah sebagai teman, mentor, atau lainnya—guna mengatur interaksi.
Namun, klaim ini dipertanyakan oleh para peneliti. Banyak pengguna melaporkan bahwa chatbot AI Replika tetap menunjukkan perilaku mengganggu atau bahkan menyerupai predator, meskipun sudah diminta berhenti. “Chatbot ini digunakan oleh orang-orang yang mencari dukungan emosional, bukan untuk memikul tanggung jawab mengawasi perilaku AI yang tidak aman,” kritik Namvarpour. Ia kembali menegaskan, “Tanggung jawab itu ada pada pengembangnya.” Perilaku meresahkan Replika disinyalir kuat berasal dari proses pelatihannya, yang menurut informasi perusahaan, menggunakan lebih dari 100 juta percakapan yang dikumpulkan dari berbagai sumber di internet. Meskipun Replika menyatakan telah menyaring konten yang tidak sesuai atau berbahaya melalui metode *crowdsourcing* dan algoritma klasifikasi, para penulis studi berpendapat bahwa langkah-langkah tersebut masih belum memadai untuk mencegah munculnya respons berisiko tinggi.
Model Bisnis Berkontribusi pada Risiko Trauma Pengguna
Dilansir dari *Business and Human Rights Resource Center* pada Senin (2/6/2025), para peneliti menilai bahwa model bisnis Replika justru berpotensi memperparah masalah. Fitur-fitur seperti permainan peran romantis atau seksual hanya dapat diakses melalui pembayaran. Hal ini memicu spekulasi bahwa AI memiliki dorongan terselubung untuk menyisipkan godaan bernuansa seksual dalam percakapan. Bahkan, beberapa pengguna merasa “dipancing” untuk berlangganan demi melanjutkan interaksi yang lebih intim.
Namvarpour membandingkan strategi ini dengan pola media sosial yang memprioritaskan keterlibatan pengguna tanpa mempedulikan dampak psikologis. “Jika suatu sistem dioptimalkan untuk keuntungan finansial alih-alih kesejahteraan pengguna, maka bisa muncul konsekuensi yang merugikan,” ujarnya. Dampak yang ditimbulkan sangat serius, terutama karena banyak pengguna mencari kenyamanan emosional atau dukungan mental dari chatbot ini. Kekhawatiran semakin memuncak karena sebagian korban dari pesan menggoda, kiriman swafoto erotis yang tidak diminta, dan konten eksplisit lainnya ternyata masih di bawah umur.
Beberapa ulasan pengguna bahkan menyebutkan bahwa chatbot mengaku bisa melihat atau merekam pengguna melalui kamera ponsel. Meskipun ini adalah hasil “halusinasi AI”—saat sistem dengan percaya diri menyampaikan informasi keliru—kejadian tersebut tetap menimbulkan efek nyata. Banyak pengguna mengaku panik, mengalami gangguan tidur, hingga merasa trauma akibat interaksi ini.
Desakan untuk Perketat Regulasi AI: Perlindungan Pengguna Adalah Prioritas
Para peneliti dengan tegas menyebut fenomena ini sebagai “pelecehan seksual akibat AI” dan menekankan bahwa jenis pelecehan ini harus diperlakukan seserius pelecehan yang dilakukan oleh manusia. Mereka mendesak agar pengawasan dan regulasi terhadap teknologi semacam ini diperketat secara komprehensif.
Beberapa langkah yang disarankan antara lain meliputi penerapan kerangka persetujuan yang jelas untuk interaksi yang mengandung muatan emosional atau seksual, penggunaan moderasi otomatis secara *real-time* layaknya pada aplikasi pesan instan, serta pemberian kontrol dan filter yang dapat disesuaikan sepenuhnya oleh pengguna.
Namvarpour secara khusus menyoroti Undang-Undang AI dari Uni Eropa, yang mengklasifikasikan sistem AI berdasarkan tingkat risiko, terutama yang berpotensi berdampak pada kondisi psikologis pengguna. Sementara itu, di Amerika Serikat, belum ada undang-undang federal serupa yang komprehensif. Namun, berbagai kerangka kerja, kebijakan eksekutif, dan rancangan undang-undang mulai bermunculan untuk menangani isu krusial ini, meskipun belum sekomprehensif regulasi di Eropa. Kasus Replika AI ini menjadi pengingat penting akan urgensi regulasi ketat demi melindungi pengguna dari potensi dampak negatif teknologi yang terus berkembang pesat.