Ini Imbauan OJK untuk Hadapi AI

Hasil wajah dan suara tiruan yang dibuat oleh AI terlihat dan terdengar meyakinkan. Teknologi AI memungkinkan pelaku untuk merekam dan meniru suara seseorang, seperti teman, kolega, atau keluarga.
JERNIH- Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan, Edukasi dan Pelindungan Konsumen OJK Friderica Widyasari Dewi mengingatkan masyarakat agar mewaspadai kejahatan baru terkait dengan kecerdasan buatan (Artificial Intelligence/AI). Sebab kemajuan teknologi AI berpotensi disalahgunakan untuk membuat tiruan suara (voice cloning) dan tiruan wajah (deepfake.
Hasil wajah dan suara tiruan yang dibuat oleh AI terlihat dan terdengar meyakinkan. Teknologi AI memungkinkan pelaku untuk merekam dan meniru suara seseorang, seperti teman, kolega, atau keluarga.
Untuk itu Kiki demikian ia kerap dipanggil meminta masyarakat untuk lebih waspada dalam melakukan transaksi keuangan.
“Dengan menggunakan suara yang sudah dipelajari tersebut, penipu dapat melakukan percakapan seolah-olah mereka adalah orang yang dikenal korban,” kata kiki dalam keterangan tertulis, beberapa waktu lalu.
Tehnologi AI juga memungkinkan pelaku untuk membuat video palsu yang meniru wajah dan ekspresi seseorang dengan akurat. Video ini dapat digunakan untuk meyakinkan korban bahwa mereka sedang berkomunikasi dengan orang yang mereka kenal sehingga korban merasa lebih percaya.
“Oleh sebab itu, kami menghimbau masyarakat untuk memperhatikan beberapa cara untuk mencegah penipuan AI,”.
Perkembangan teknologi akhir-akhir ini sering disalahgunakan untuk kejahatan keuangan. Para kejahatan di sektor keuangan memanfaatkan teknologi AI untuk menipu masyarakat melalui video atau suara yang dapat menguras rekening para korbannya.
Menghadapi dampak kemajuan tehnologi tersebut OJK memberikan beberapa tips kepada masyarakat agar terhindar dari penipuan kejahatan yang menggunakan teknologi AI. Antara lain, masyarakat diminta untuk melakukan verifikasi informasi.
“Jika menerima permintaan yang tidak biasa, terutama yang meminta uang atau informasi pribadi, verifikasi terlebih dahulu dengan orang tersebut melalui saluran komunikasi yang lain,”.
Masyarakat harus selalu berhati-hati dengan video atau suara yang tidak biasanya.
“Waspadai video atau suara yang terlihat atau terdengar tidak biasa meskipun datang dari orang yang dikenal,” pungkasnya.
Masyarakat juga diminta untuk menjaga kerahasiaan informasi pribadi.
“Jangan pernah memberikan informasi pribadi atau keuangan kepada seseorang yang tidak dapat anda verifikasi dengan pasti identitasnya,”. (tvl)






